64 resultados para Performance evolution due time


Relevância:

40.00% 40.00%

Publicador:

Resumo:

La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

One of the main problems in urban areas is the steady growth in car ownership and traffic levels. Therefore, the challenge of sustainability is focused on a shift of the demand for mobility from cars to collective means of transport. For this purpose, buses are a key element of the public transport systems. In this respect Real Time Passenger Information (RTPI) systems help people change their travel behaviour towards more sustainable transport modes. This paper provides an assessment methodology which evaluates how RTPI systems improve the quality of bus services performance in two European cities, Madrid and Bremerhaven. In the case of Madrid, bus punctuality has increased by 3%. Regarding the travellers perception, Madrid raised its quality of service by 6% while Bremerhaven increased by 13%. On the other hand, the users¿ perception of Public Transport (PT) image increased by 14%.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La telepesencia combina diferentes modalidades sensoriales, incluyendo, entre otras, la visual y la del tacto, para producir una sensación de presencia remota en el operador. Un elemento clave en la implementación de sistemas de telepresencia para permitir una telemanipulación del entorno remoto es el retorno de fuerza. Durante una telemanipulación, la energía mecánica es transferida entre el operador humano y el entorno remoto. En general, la energía es una propiedad de los objetos físicos, fundamental en su mutual interacción. En esta interacción, la energía se puede transmitir entre los objetos, puede cambiar de forma pero no puede crearse ni destruirse. En esta tesis, se aplica este principio fundamental para derivar un nuevo método de control bilateral que permite el diseño de sistemas de teleoperación estables para cualquier arquitectura concebible. El razonamiento parte del hecho de que la energía mecánica insertada por el operador humano en el sistema debe transferirse hacia el entorno remoto y viceversa. Tal como se verá, el uso de la energía como variable de control permite un tratamiento más general del sistema que el control convencional basado en variables específicas del sistema. Mediante el concepto de Red de Potencia de Retardo Temporal (RPRT), el problema de definir los flujos de energía en un sistema de teleoperación es solucionado con independencia de la arquitectura de comunicación. Como se verá, los retardos temporales son la principal causa de generación de energía virtual. Este hecho se observa con retardos a partir de 1 milisegundo. Esta energía virtual es añadida al sistema de forma intrínseca y representa la causa principal de inestabilidad. Se demuestra que las RPRTs son transportadoras de la energía deseada intercambiada entre maestro y esclavo pero a la vez generadoras de energía virtual debido al retardo temporal. Una vez estas redes son identificadas, el método de Control de Pasividad en el Dominio Temporal para RPRTs se propone como mecanismo de control para asegurar la pasividad del sistema, y as__ la estabilidad. El método se basa en el simple hecho de que esta energía virtual debido al retardo debe transformarse en disipación. As__ el sistema se aproxima al sistema deseado, donde solo la energía insertada desde un extremo es transferida hacia el otro. El sistema resultante presenta dos cualidades: por un lado la estabilidad del sistema queda garantizada con independencia de la arquitectura del sistema y del canal de comunicación; por el otro, el rendimiento es maximizado en términos de fidelidad de transmisión energética. Los métodos propuestos se sustentan con sistemas experimentales con diferentes arquitecturas de control y retardos entre 2 y 900 ms. La tesis concluye con un experimento que incluye una comunicación espacial basada en el satélite geoestacionario ASTRA. ABSTRACT Telepresence combines different sensorial modalities, including vision and touch, to produce a feeling of being present in a remote location. The key element to successfully implement a telepresence system and thus to allow telemanipulation of a remote environment is force feedback. In a telemanipulation, mechanical energy must convey from the human operator to the manipulated object found in the remote environment. In general, energy is a property of all physical objects, fundamental to their mutual interactions in which the energy can be transferred among the objects and can change form but cannot be created or destroyed. In this thesis, we exploit this fundamental principle to derive a novel bilateral control mechanism that allows designing stable teleoperation systems with any conceivable communication architecture. The rationale starts from the fact that the mechanical energy injected by a human operator into the system must be conveyed to the remote environment and Vice Versa. As will be seen, setting energy as the control variable allows a more general treatment of the controlled system in contrast to the more conventional control of specific systems variables. Through the Time Delay Power Network (TDPN) concept, the issue of defining the energy flows involved in a teleoperation system is solved with independence of the communication architecture. In particular, communication time delays are found to be a source of virtual energy. This fact is observed with delays starting from 1 millisecond. Since this energy is added, the resulting teleoperation system can be non-passive and thus become unstable. The Time Delay Power Networks are found to be carriers of the desired exchanged energy but also generators of virtual energy due to the time delay. Once these networks are identified, the Time Domain Passivity Control approach for TDPNs is proposed as a control mechanism to ensure system passivity and therefore, system stability. The proposed method is based on the simple fact that this intrinsically added energy due to the communication must be transformed into dissipation. Then the system becomes closer to the ambitioned one, where only the energy injected from one end of the system is conveyed to the other one. The resulting system presents two benefits: On one hand, system stability is guaranteed through passivity independently from the chosen control architecture and communication channel; on the other, performance is maximized in terms of energy transfer faithfulness. The proposed methods are sustained with a set of experimental implementations using different control architectures and communication delays ranging from 2 to 900 milliseconds. An experiment that includes a communication Space link based on the geostationary satellite ASTRA concludes this thesis.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En este trabajo se ha realizado un análisis de la estructura del juego y de los parámetros morfológicos y fisiológicos en jugadores de bádminton. Para ello se han realizado 4 estudios aplicados. Objetivo: Los objetivos del trabajo han sido: (1) comprobar si existen diferencias entre el lado dominante y no dominante de las medidas antropométricas en jugadores de bádminton de máximo nivel nacional, así como verificar si el lado del cuerpo donde se realiza la medición puede influir en el cálculo de la composición corporal y del somatotipo. (2) Comparar la estuctura temporal y notacional en partidos de individual masculino entre los Juegos Olímpicos de Pekín y de Londres para observar como ha evolucionado el bádminton de 2008 a 2012. (3) Medir la ocurrencia de daño muscular después de un partido simulado de bádminton y su influencia en parámetros físicos y hematológicos. (4) Investigar la efectividad de una bebida energética que contiene cafeína para mejorar el rendimiento físico y el rendimiento en un partido en jugadores de élite de bádminton. Metodología: Para caracterizar el bádminton participaron en esta tesis un total de 78 jugadores de bádminton de élite (63 hombres y 15 mujeres), distribuidos en tres estudios y se analizaron 40 sets de bádminton de individual masculino usando los videos oficiales de los Juegos Olímpicos de Pekín 2008 y Londres 2012. En el primer estudio se tomaron medidas de pliegues cutáneos, diámetros, longitudes y perímetros del lado dominante y no dominante de los jugadores. Se calculó la composición corporal y el somatotipo. En el segundo estudio se analizaron los factores temporales y los factores notacionales de los partidos. En el tercer estudio se midieron la fuerza máxima isométrica, la velocidad en test específicos de bádminton y se tomaron muestras de sangre antes y después de jugar un partido de bádminton de 45 minutos. En el cuarto estudio se realizó un experimento a doble ciego, aleatorizado y controlado con placebo, los jugadores ingirieron 3 mg de cafeína por kilógramo de masa corporal en forma de bebida energética, o la misma bebida sin cafeína (placebo). En este estudio se registraron diferente tests específicos de bádminton (tests de salto, fuerza máxima y test de agilidad) y se jugó un partido simulado de 45 minutos. Resultados y discusión: (1) El porcentaje óseo fue mayor calculado a partir de las mediciones del lado dominante (dominante = 16.37 ± 1.14 %, no dominante = 15.66 ± 1.12 %; P < 0.001), mientras que el porcentaje muscular fue mayor calculado a partir de las mediciones del lado no dominante (dominante = 49.39 ± 2.60 %, no dominante = 50.18 ± 2.69%; P < 0.001). (2) La duración del set (Pekín: 1124.6 ± 229.9 s vs Londres: 1260.3 ± 267.1 s.; P < 0.05), el tiempo real de juego (Pekín: 306.9 ± 45.7 s vs Londres: 354.7 ± 86.5 s; P < 0.05), tiempo de rally, golpeos por rally, tiempo de descanso en el punto 11, tiempo de descanso entre sets y golpeos por rally fueron significativamente mayores en Londres que en Pekín. (3) El partido simulado de bádminton no afectó a la fuerza isométrica máxima (Pre: 1263.6 ± 245.5, Post: 1290.8 ± 240.4 N) o a la velocidad específica de bádminton (Pre: 21.0 ± 1.7, Post: 20.9 ± 1.8 s), sin embargo las concentraciones de mioglobina y de creatina quinasa en sangre aumentaron de 26.5 ± 11.6 a 197.3 ± 70.2 μg • L-1 y de 258.6 ± 192.2 a 466.0 ± 296.5 U • L-1, respectivamente después del partido de bádminton. (4) En comparación con la bebida placebo, la ingesta de la bebida energética con cafeína incrementó la altura del SJ (34.5±4.7 vs. 36.4±4.3 cm; P < 0.05) y del CMJ (37.7 ± 4.5 vs. 39.5 ± 5.1 cm; P < 0.05) y aumentó el número de aceleraciones totales durante el partido (7395 ± 1594 vs. 7707 ± 2033 aceleraciones; P < 0.05). Conclusiones: (1) Existen asimetrías corporales en los jugadores de bádminton de alto nivel, al encontrarse diferencias en los diámetros óseos y en los perímetros entre el lado dominante y no dominante. Al calcular la composición corporal con el lado dominante de los jugadores de bádminton se está sobreestimando el porcentaje óseo e infraestimando el porcentaje muscular. (2) El bádminton está evolucionando hacía rallies más largos con intervalos de descanso mayores, lo que resulta en partidos más largos. (3) El partido de bádminton generó daño muscular, sin embargo, el nivel de daño muscular alcanzado después de un partido de bádminton no produjo una disminución del rendimiento muscular. (4) El uso de una bebida energética con cafeína puede ser una ayuda nutricional eficaz para aumentar el rendimiento en el salto y patrones de actividad durante el juego en jugadores de élite de bádminton. ABSTRACT: This study analyzes the structure of the game and the morphological and physiological parameters in badminton players, investigated in four applied studies. Purpose: The purposes of the study were: (1) To check if there are differences between the dominant and non-dominant side in the anthropometric measures of badminton players at the highest national level and verify if the side of the body where the measurements are performed can influence the calculation of the body composition and the somatotype. (2) To compare the temporal and notational structure in men’s singles matches between the Olympic Games in Beijing and London to observe the evolution of badminton between 2008 and 2012. (3) To asses the occurrence of muscle damage after a simulated badminton match and its influence on physical and haematological parameters. (4) To determine the effectiveness of a commercially available energy drink that contains caffeine to improve match performance in elite badminton players. Methods: A total of 78 elite badminton players (63 men and 15 women) participated in this thesis to characterize the sport of badminton distributed in three studies and 40 sets of men’s singles badminton analyzed using the official videos of the Olympic Games of Beijing 2008 and London 2012. In the first study skinfolds, diameters, lengths and perimeters of the dominant and non-dominant side of the players were measured and body composition and somatotype were calculated. In the second study the temporal and notational factors were analyzed. In the third study maximal isometric force and speed in badminton specific tests were measured and blood samples were taken before and after a badminton match of 45 minutes. In the fourth study, a double-blind, randomized placebo-controlled experiment, players ingested 3 mg of caffeine per kilogram of body mass in the form of an energy drink or an identical drink with no caffeine content (placebo). In this study different badminton specific tests (jump tests, handgrip force test and an agility test) were recorded and a simulated badminton match of 45 minutes was played. Results and discussion: (1) The percentage of bone was higher when calculated from measurements of the dominant body side (dominant = 16.37 ± 1.14 %, nondominant = 15.66 ± 1.12 %; P < 0.001), while the muscle percentage was higher when calculated from measurements of the non-dominant side (dominant = 49.39 ± 2.60 %, non-dominant = 50.18 ± 2.69%; P < 0.001). (2) Set duration (Beijing: 1124.6 ± 229.9 s vs. London: 1260.3 ± 267.1 s.; P < 0.05), real time played (Beijing: 306.9 ± 45.7 s vs. London: 354.7 ± 86.5 s; P < 0.05), rally time, shots per rally, rest time at point 11, rest time between sets and shots per rally were significantly higher in London than in Beijing. (3) A simulated badminton match did not affect maximal isometric force (Pre: 1263.6 ± 245.5, Post: 1290.8 ± 240.4 N) or specific badminton speed (Pre: 21.0 ± 1.7, Post: 20.9 ± 1.8 s), however, concentrations of myoglobin and creatine kinase in blood increased from 26.5 ± 11.6 to 197.3 ± 70.2 μg • L-1 and from 258.6 ± 192.2 to 466.0 ± 296.5 U • L-1, respectively after the badminton match. (4) In comparison to the placebo drink, the caffeinated beverage increased height in the SJ (34.5±4.7 vs. 36.4±4.3 cm; P < 0.05) and in the CMJ (37.7 ± 4.5 vs. 39.5 ± 5.1 cm; P < 0.05) and increased the number of total accelerations during the match (7395 ± 1594 vs. 7707 ± 2033 accelerations; P < 0.05). Conclusions: (1) Body asymmetries were found in high level badminton players, due to the differences found in bone diameters and perimeters between the dominant and non-dominant body side. When calculating body composition with the dominant side of the badminton players we are overestimating bone percentage and underestimating muscle percentage. (2) Badminton is evolving towards longer rallies with greater rest intervals, resulting in longer matches. (3) The badminton match generated muscle damage, however, the level of muscle damage reached after a badminton match did not produce a decrease in muscle performance. (4) The ingestion of an energy drink containing caffeine might be an effective ergogenic nutritional supplement to increase jump performance and activity patterns during the game in elite badminton players.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Equations for extreme runup worked out from several experimental studies are compared. Infragraviatory oscillations dominate the swash in a dissipative state but not in intermediate - reflective states. Therefore two kinds of equation depending on either significant wave height, H-0, or the Iribarren number, xi(0), should be used. Through a sand bed physical model with a uniform sand bed slope, equations are proposed for both beach states, and results are compared with precedent field and physical model experiments. Once the equations are chosen, the time-longshore variability in a medium - long term time scale of the foreshore slope is evaluated in two extreme cases relating to the Spanish coast. The Salinas beach on the North coast (Bay of Biscay) displayed a permanent dissipative beach state with small variations in the beach foreshore slope both along the shore and in time, so foreshore slope deviations in a medium-long term period were irrelevant and extreme runup is predicted with the wave height worked out from the design return period. Peniscola beach on the East coast (Mediterranean sea) displayed an intermediate state. If only time variations are analysed, variations in determining extreme runup are irrelevant. In contrast, significant differences were found when the longshore variations were studied in this Mediterranean beach.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Strained fin is one of the techniques used to improve the devices as their size keeps reducing in new nanoscale nodes. In this paper, we use a predictive technology of 14 nm where pMOS mobility is significantly improved when those devices are built on top of long, uncut fins, while nMOS devices present the opposite behavior due to the combination of strains. We explore the possibility of boosting circuit performance in repetitive structures where long uncut fins can be exploited to increase fin strain impact. In particular, pMOS pass-gates are used in 6T complementary SRAM cells (CSRAM) with reinforced pull-ups. Those cells are simulated under process variability and compared to the regular SRAM. We show that when layout dependent effects are considered the CSRAM design provides 10% to 40% faster access time while keeping the same area, power, and stability than a regular 6T SRAM cell. The conclusions also apply to 8T SRAM cells. The CSRAM cell also presents increased reliability in technologies whose nMOS devices have more mismatch than pMOS transistors.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tolls have increasingly become a common mechanism to fund road projects in recent decades. Therefore, improving knowledge of demand behavior constitutes a key aspect for stakeholders dealing with the management of toll roads. However, the literature concerning demand elasticity estimates for interurban toll roads is still limited due to their relatively scarce number in the international context. Furthermore, existing research has left some aspects to be investigated, among others, the choice of GDP as the most common socioeconomic variable to explain traffic growth over time. This paper intends to determine the variables that better explain the evolution of light vehicle demand in toll roads throughout the years. To that end, we establish a dynamic panel data methodology aimed at identifying the key socioeconomic variables explaining changes in light vehicle demand over time. The results show that, despite some usefulness, GDP does not constitute the most appropriate explanatory variable, while other parameters such as employment or GDP per capita lead to more stable and consistent results. The methodology is applied to Spanish toll roads for the 1990?2011 period, which constitutes a very interesting case on variations in toll road use, as road demand has experienced a significant decrease since the beginning of the economic crisis in 2008.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El objetivo de esta tesis es estudiar la dinámica de la capa logarítmica de flujos turbulentos de pared. En concreto, proponemos un nuevo modelo estructural utilizando diferentes tipos de estructuras coherentes: sweeps, eyecciones, grupos de vorticidad y streaks. La herramienta utilizada es la simulación numérica directa de canales turbulentos. Desde los primeros trabajos de Theodorsen (1952), las estructuras coherentes han jugado un papel fundamental para entender la organización y dinámica de los flujos turbulentos. A día de hoy, datos procedentes de simulaciones numéricas directas obtenidas en instantes no contiguos permiten estudiar las propiedades fundamentales de las estructuras coherentes tridimensionales desde un punto de vista estadístico. Sin embargo, la dinámica no puede ser entendida en detalle utilizando sólo instantes aislados en el tiempo, sino que es necesario seguir de forma continua las estructuras. Aunque existen algunos estudios sobre la evolución temporal de las estructuras más pequeñas a números de Reynolds moderados, por ejemplo Robinson (1991), todavía no se ha realizado un estudio completo a altos números de Reynolds y para todas las escalas presentes de la capa logarítmica. El objetivo de esta tesis es llevar a cabo dicho análisis. Los problemas más interesantes los encontramos en la región logarítmica, donde residen las cascadas de vorticidad, energía y momento. Existen varios modelos que intentan explicar la organización de los flujos turbulentos en dicha región. Uno de los más extendidos fue propuesto por Adrian et al. (2000) a través de observaciones experimentales y considerando como elemento fundamental paquetes de vórtices con forma de horquilla que actúan de forma cooperativa para generar rampas de bajo momento. Un modelo alternativo fué ideado por del Álamo & Jiménez (2006) utilizando datos numéricos. Basado también en grupos de vorticidad, planteaba un escenario mucho más desorganizado y con estructuras sin forma de horquilla. Aunque los dos modelos son cinemáticamente similares, no lo son desde el punto de vista dinámico, en concreto en lo que se refiere a la importancia que juega la pared en la creación y vida de las estructuras. Otro punto importante aún sin resolver se refiere al modelo de cascada turbulenta propuesto por Kolmogorov (1941b), y su relación con estructuras coherentes medibles en el flujo. Para dar respuesta a las preguntas anteriores, hemos desarrollado un nuevo método que permite seguir estructuras coherentes en el tiempo y lo hemos aplicado a simulaciones numéricas de canales turbulentos con números de Reynolds lo suficientemente altos como para tener un rango de escalas no trivial y con dominios computacionales lo suficientemente grandes como para representar de forma correcta la dinámica de la capa logarítmica. Nuestros esfuerzos se han desarrollado en cuatro pasos. En primer lugar, hemos realizado una campaña de simulaciones numéricas directas a diferentes números de Reynolds y tamaños de cajas para evaluar el efecto del dominio computacional en las estadísticas de primer orden y el espectro. A partir de los resultados obtenidos, hemos concluido que simulaciones con cajas de longitud 2vr y ancho vr veces la semi-altura del canal son lo suficientemente grandes para reproducir correctamente las interacciones entre estructuras coherentes de la capa logarítmica y el resto de escalas. Estas simulaciones son utilizadas como punto de partida en los siguientes análisis. En segundo lugar, las estructuras coherentes correspondientes a regiones con esfuerzos de Reynolds tangenciales intensos (Qs) en un canal turbulento han sido estudiadas extendiendo a tres dimensiones el análisis de cuadrantes, con especial énfasis en la capa logarítmica y la región exterior. Las estructuras coherentes han sido identificadas como regiones contiguas del espacio donde los esfuerzos de Reynolds tangenciales son más intensos que un cierto nivel. Los resultados muestran que los Qs separados de la pared están orientados de forma isótropa y su contribución neta al esfuerzo de Reynolds medio es nula. La mayor contribución la realiza una familia de estructuras de mayor tamaño y autosemejantes cuya parte inferior está muy cerca de la pared (ligada a la pared), con una geometría compleja y dimensión fractal « 2. Estas estructuras tienen una forma similar a una ‘esponja de placas’, en comparación con los grupos de vorticidad que tienen forma de ‘esponja de cuerdas’. Aunque el número de objetos decae al alejarnos de la pared, la fracción de esfuerzos de Reynolds que contienen es independiente de su altura, y gran parte reside en unas pocas estructuras que se extienden más allá del centro del canal, como en las grandes estructuras propuestas por otros autores. Las estructuras dominantes en la capa logarítmica son parejas de sweeps y eyecciones uno al lado del otro y con grupos de vorticidad asociados que comparten las dimensiones y esfuerzos con los remolinos ligados a la pared propuestos por Townsend. En tercer lugar, hemos estudiado la evolución temporal de Qs y grupos de vorticidad usando las simulaciones numéricas directas presentadas anteriormente hasta números de Reynolds ReT = 4200 (Reynolds de fricción). Las estructuras fueron identificadas siguiendo el proceso descrito en el párrafo anterior y después seguidas en el tiempo. A través de la interseción geométrica de estructuras pertenecientes a instantes de tiempo contiguos, hemos creado gratos de conexiones temporales entre todos los objetos y, a partir de ahí, definido ramas primarias y secundarias, de tal forma que cada rama representa la evolución temporal de una estructura coherente. Una vez que las evoluciones están adecuadamente organizadas, proporcionan toda la información necesaria para caracterizar la historia de las estructuras desde su nacimiento hasta su muerte. Los resultados muestran que las estructuras nacen a todas las distancias de la pared, pero con mayor probabilidad cerca de ella, donde la cortadura es más intensa. La mayoría mantienen tamaños pequeños y no viven mucho tiempo, sin embargo, existe una familia de estructuras que crecen lo suficiente como para ligarse a la pared y extenderse a lo largo de la capa logarítmica convirtiéndose en las estructuras observas anteriormente y descritas por Townsend. Estas estructuras son geométricamente autosemejantes con tiempos de vida proporcionales a su tamaño. La mayoría alcanzan tamaños por encima de la escala de Corrsin, y por ello, su dinámica está controlada por la cortadura media. Los resultados también muestran que las eyecciones se alejan de la pared con velocidad media uT (velocidad de fricción) y su base se liga a la pared muy rápidamente al inicio de sus vidas. Por el contrario, los sweeps se mueven hacia la pared con velocidad -uT y se ligan a ella más tarde. En ambos casos, los objetos permanecen ligados a la pared durante 2/3 de sus vidas. En la dirección de la corriente, las estructuras se desplazan a velocidades cercanas a la convección media del flujo y son deformadas por la cortadura. Finalmente, hemos interpretado la cascada turbulenta, no sólo como una forma conceptual de organizar el flujo, sino como un proceso físico en el cual las estructuras coherentes se unen y se rompen. El volumen de una estructura cambia de forma suave, cuando no se une ni rompe, o lo hace de forma repentina en caso contrario. Los procesos de unión y rotura pueden entenderse como una cascada directa (roturas) o inversa (uniones), siguiendo el concepto de cascada de remolinos ideado por Richardson (1920) y Obukhov (1941). El análisis de los datos muestra que las estructuras con tamaños menores a 30η (unidades de Kolmogorov) nunca se unen ni rompen, es decir, no experimentan el proceso de cascada. Por el contrario, aquellas mayores a 100η siempre se rompen o unen al menos una vez en su vida. En estos casos, el volumen total ganado y perdido es una fracción importante del volumen medio de la estructura implicada, con una tendencia ligeramente mayor a romperse (cascada directa) que a unirse (cascade inversa). La mayor parte de interacciones entre ramas se debe a roturas o uniones de fragmentos muy pequeños en la escala de Kolmogorov con estructuras más grandes, aunque el efecto de fragmentos de mayor tamaño no es despreciable. También hemos encontrado que las roturas tienen a ocurrir al final de la vida de la estructura y las uniones al principio. Aunque los resultados para la cascada directa e inversa no son idénticos, son muy simétricos, lo que sugiere un alto grado de reversibilidad en el proceso de cascada. ABSTRACT The purpose of the present thesis is to study the dynamics of the logarithmic layer of wall-bounded turbulent flows. Specifically, to propose a new structural model based on four different coherent structures: sweeps, ejections, clusters of vortices and velocity streaks. The tool used is the direct numerical simulation of time-resolved turbulent channels. Since the first work by Theodorsen (1952), coherent structures have played an important role in the understanding of turbulence organization and its dynamics. Nowadays, data from individual snapshots of direct numerical simulations allow to study the threedimensional statistical properties of those objects, but their dynamics can only be fully understood by tracking them in time. Although the temporal evolution has already been studied for small structures at moderate Reynolds numbers, e.g., Robinson (1991), a temporal analysis of three-dimensional structures spanning from the smallest to the largest scales across the logarithmic layer has yet to be performed and is the goal of the present thesis. The most interesting problems lie in the logarithmic region, which is the seat of cascades of vorticity, energy, and momentum. Different models involving coherent structures have been proposed to represent the organization of wall-bounded turbulent flows in the logarithmic layer. One of the most extended ones was conceived by Adrian et al. (2000) and built on packets of hairpins that grow from the wall and work cooperatively to gen- ´ erate low-momentum ramps. A different view was presented by del Alamo & Jim´enez (2006), who extracted coherent vortical structures from DNSs and proposed a less organized scenario. Although the two models are kinematically fairly similar, they have important dynamical differences, mostly regarding the relevance of the wall. Another open question is whether such a model can be used to explain the cascade process proposed by Kolmogorov (1941b) in terms of coherent structures. The challenge would be to identify coherent structures undergoing a turbulent cascade that can be quantified. To gain a better insight into the previous questions, we have developed a novel method to track coherent structures in time, and used it to characterize the temporal evolutions of eddies in turbulent channels with Reynolds numbers high enough to include a non-trivial range of length scales, and computational domains sufficiently long and wide to reproduce correctly the dynamics of the logarithmic layer. Our efforts have followed four steps. First, we have conducted a campaign of direct numerical simulations of turbulent channels at different Reynolds numbers and box sizes, and assessed the effect of the computational domain in the one-point statistics and spectra. From the results, we have concluded that computational domains with streamwise and spanwise sizes 2vr and vr times the half-height of the channel, respectively, are large enough to accurately capture the dynamical interactions between structures in the logarithmic layer and the rest of the scales. These simulations are used in the subsequent chapters. Second, the three-dimensional structures of intense tangential Reynolds stress in plane turbulent channels (Qs) have been studied by extending the classical quadrant analysis to three dimensions, with emphasis on the logarithmic and outer layers. The eddies are identified as connected regions of intense tangential Reynolds stress. Qs are then classified according to their streamwise and wall-normal fluctuating velocities as inward interactions, outward interactions, sweeps and ejections. It is found that wall-detached Qs are isotropically oriented background stress fluctuations, common to most turbulent flows, and do not contribute to the mean stress. Most of the stress is carried by a selfsimilar family of larger wall-attached Qs, increasingly complex away from the wall, with fractal dimensions « 2. They have shapes similar to ‘sponges of flakes’, while vortex clusters resemble ‘sponges of strings’. Although their number decays away from the wall, the fraction of the stress that they carry is independent of their heights, and a substantial part resides in a few objects extending beyond the centerline, reminiscent of the very large scale motions of several authors. The predominant logarithmic-layer structures are sideby- side pairs of sweeps and ejections, with an associated vortex cluster, and dimensions and stresses similar to Townsend’s conjectured wall-attached eddies. Third, the temporal evolution of Qs and vortex clusters are studied using time-resolved DNS data up to ReT = 4200 (friction Reynolds number). The eddies are identified following the procedure presented above, and then tracked in time. From the geometric intersection of structures in consecutive fields, we have built temporal connection graphs of all the objects, and defined main and secondary branches in a way that each branch represents the temporal evolution of one coherent structure. Once these evolutions are properly organized, they provide the necessary information to characterize eddies from birth to death. The results show that the eddies are born at all distances from the wall, although with higher probability near it, where the shear is strongest. Most of them stay small and do not last for long times. However, there is a family of eddies that become large enough to attach to the wall while they reach into the logarithmic layer, and become the wall-attached structures previously observed in instantaneous flow fields. They are geometrically self-similar, with sizes and lifetimes proportional to their distance from the wall. Most of them achieve lengths well above the Corrsin’ scale, and hence, their dynamics are controlled by the mean shear. Eddies associated with ejections move away from the wall with an average velocity uT (friction velocity), and their base attaches very fast at the beginning of their lives. Conversely, sweeps move towards the wall at -uT, and attach later. In both cases, they remain attached for 2/3 of their lives. In the streamwise direction, eddies are advected and deformed by the local mean velocity. Finally, we interpret the turbulent cascade not only as a way to conceptualize the flow, but as an actual physical process in which coherent structures merge and split. The volume of an eddy can change either smoothly, when they are not merging or splitting, or through sudden changes. The processes of merging and splitting can be thought of as a direct (when splitting) or an inverse (when merging) cascade, following the ideas envisioned by Richardson (1920) and Obukhov (1941). It is observed that there is a minimum length of 30η (Kolmogorov units) above which mergers and splits begin to be important. Moreover, all eddies above 100η split and merge at least once in their lives. In those cases, the total volume gained and lost is a substantial fraction of the average volume of the structure involved, with slightly more splits (direct cascade) than mergers. Most branch interactions are found to be the shedding or absorption of Kolmogorov-scale fragments by larger structures, but more balanced splits or mergers spanning a wide range of scales are also found to be important. The results show that splits are more probable at the end of the life of the eddy, while mergers take place at the beginning of the life. Although the results for the direct and the inverse cascades are not identical, they are found to be very symmetric, which suggests a high degree of reversibility of the cascade process.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This work is concerned with the numerical solution of the evolution equations of thermomechanical systems, in such a way that the scheme itself satisfies the laws of thermodynamics. Within this framework, we present a novel integration scheme for the dynamics of viscoelastic continuum bodies in isothermal conditions. This method intrinsically satisfies the laws of thermodynamics arising from the continuum, as well as the possible additional symmetries. The resulting solutions are physically accurate since they preserve the fundamental physical properties of the model. Furthermore, the method gives an excellent performance with respect to robustness and stability. Proof for these claims as well as numerical examples that illustrate the performance of the novel scheme are provided

Relevância:

40.00% 40.00%

Publicador:

Resumo:

As embedded systems evolve, problems inherent to technology become important limitations. In less than ten years, chips will exceed the maximum allowed power consumption affecting performance, since, even though the resources available per chip are increasing, frequency of operation has stalled. Besides, as the level of integration is increased, it is difficult to keep defect density under control, so new fault tolerant techniques are required. In this demo work, a new dynamically adaptable virtual architecture (ARTICo3) to allow dynamic and context-aware use of resources is implemented in a high performance Wireless Sensor node (HiReCookie) to perform an image processing application.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dynamic and Partial Reconfiguration allows systems to change some parts of their hardware at run time. This feature favours the inclusion of evolutionary strategies to provide optimised solutions to the same problem so that they can be mixed and compared in a way that only the best ones prevail. At the same time, distributed intelligence permits systems to work in a collaborative way to jointly improve their global capabilities. This work presents a combination of both approaches where hardware evolution is performed both at local and network level in order to improve an image filter application in terms of performance, robustness and providing the capacity of avoiding local minimums, which is the main drawback of some evolutionary approaches.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En las últimas décadas, ha aumentado el interés de la investigación sobre el desarrollo de la coordinación motriz en la adolescencia por ser una etapa sensible, crítica y crucial para la adquisición de hábitos y conductas saludables de vida. Estos estudios han mostrado que la adquisición de unos niveles óptimos de coordinación y competencia motriz van a ser determinantes para el bienestar del adolescente y van a estar relacionados e influidos por otras dimensiones del desarrollo de la persona. Recientes investigaciones han sacado a la luz datos alarmantes sobre el aumento de problemas de coordinación motriz en la población infantil y adolescente (Cantell, Smyth y Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutiérrez y Miyahara, 2003; Sudgen y Chambers, 2005) donde abrocharse los botones de una camisa o correr de forma armónica puede ser todo un mundo lleno de dificultades y consecuencias sobre otras dimensiones del desarrollo (Ramón-Otero y Ruiz, 2015). Estos problemas han sido tratados por investigadores como una “dificultad oculta” (Gómez, Ruiz y Mata, 2006), cuya manifestación está presente en las actividades de la vida cotidiana, en contextos deportivos, en juegos y/o en la clase de Educación Física (Ruiz, 2004). La preocupación por estas dificultades se ha extendido a nivel internacional, creando todo un campo de investigación que estudia el diagnóstico de éstos problemas, conocido bajo las siglas DCD (Developmental Coordination Disorder). El presente estudio se centra en la etapa adolescente, periodo de transición entre la etapa infantil y adulta, caracterizada por numerosos cambios biológicos, cognitivos y socioemocionales (Santrock, 2005), que van a determinar la adaptación con el entorno (Gallahue, Ozmun y Goodway, 2011; Gómez, Ruiz, y Mata, 2006). El propósito principal del estudio es analizar el desarrollo de la coordinación motriz en la etapa adolescente investigando las diferencias de género y de edad en relación con variables psicosociales, los hábitos de práctica y las variables antropométricas. El diseño de la investigación se estructura en dos estudios. El primero de ellos, de carácter transversal, analizó una muestra representativa de 1.966 adolescentes de 1º a 4º de la ESO. El segundo, de naturaleza longitudinal, utilizó un grupo de 89 adolescentes del estudio transversal los cuales fueron estudiados durante 4 años, desde los 12 a los 15 años. Los mismos instrumentos fueron utilizados en ambos estudios: el Test Sportcomp para la evaluación de la coordinación motriz, el test AMPET4 para valorar la motivación de logro para el aprendizaje en Educación Física, el inventario HBSC para conocer los hábitos saludables sobre la práctica de actividad física y, por ultimo, se utilizó un estadiómetro para obtener el peso y la altura y así calcular el índice de masa corporal (IMC). La toma de datos del Estudio Transversal se realizó en 2 cursos académicos (2011/12 - 2012/13), en la cual se requirieron 3 sesiones coincidiendo con la clase de Educación Física. En la primera sesión, se evaluó la coordinación motriz. En la segunda se aplicaron los cuestionarios (AMPET4 y HBSC) y, en la última sesión se midió el peso y la altura en un espacio reservado al estadiómetro. El análisis de datos fue descriptivo y diferencial de cada una de las variables estudiadas: motoras, psicosociales, de hábitos de práctica de actividad física y antropométricas. Asimismo, se llevaron a cabo pruebas de análisis univariante y multivariante, calculando el valor-p y las pruebas de efecto. Respecto al Estudio Longitudinal, la toma de datos se llevó cabo durante 4 años desde el 2011 al 2014. La evaluación de la coordinación motriz se realizó en cada uno de los 4 años. Sin embargo, los 2 cuestionarios y las medidas antropométricas fueron evaluadas en el primer y cuarto año. Los análisis de datos fueron descriptivos y comparativos entre las variables analizadas. En el caso de la coordinación motriz, se realizaron las pruebas de medidas repetidas y, en el caso de las demás variables analizadas, se realizaron Prueba T para muestras relacionadas. Los resultados globales mostraron que el índice motor en el Estudio Transversal fue progresivo en el conjunto de chicos. Sin embargo, en las chicas, el rendimiento se estabiliza a partir de los 13 años. En el caso del Estudio Longitudinal, este índice se estabiliza en los 3 primeros años y a la edad de los 14, es cuando comienzan a acusarse las diferencias de género. En el caso de los hombres el rendimiento mejora y, por el contrario, en las mujeres empeora. En el Estudio Transversal, el análisis de varianza mostraron diferencias en función de la edad [F(7, 1958) = 220.70, p < .001; η2 = .101], del género [F(7, 1958) = 29.76, p < .001; η2 = .044], así como en la interacción entre ambos [F(7, 1958)= 11.90, p < .001; η2 = .018]. Únicamente aparecieron diferencias significativas con la edad en todos los grupos de hombres, excepto entre 14 y 15 años. En el Longitudinal, los contrastes multivariados mostraron que no hubo diferencias sgnificativas en el tiempo [F(3,85) = .05, p = .987, η2= .002] mostrando un nivel de coordinación estable a lo largo de los años, aunque existieron diferencias entre chicos y chicas [F(3,85) = 4.64 p = .005] con un tamaño de efecto destacable (η2 = .141). En cuanto a la motivación de logro para prender en Educación Física, en ambos estudios, los chicos fueron los que obtuvieron puntuaciones más elevadas en todas las dimensiones positivas del test (compromiso de aprendizaje, competencia autopercibida y comparada). Sin embargo, en la dimensión negativa del test, la referida a la ansiedad y al agobio ante el fracaso, fueron las chicas las que puntuaron más alto. En el Estudio Transversal, los resultados mostraron diferencias significativas en todas las dimensiones del AMPET4 en función del nivel de coordinación motriz: compromiso con el aprendizaje [F(2, 1644) = 8.66, p < .001; η2 = .010], competencia autopercibida [F(2, 1644) = 50.94, p < .001; η2 = .048], competencia comparada [F(2, 1644) = 41.56, p < .001, η2 = .020] y ansiedad [F(2, 1644) = 16.67, p < .001, η2 = .058]. En este sentido, los grupos de mejor nivel de coordinación motriz, fueron los que mayor puntuación obtuvieron en las dimensiones positivas y los que menor, en la negativa. En el Estudio Longitudinal, también se encontraron diferencias entre el primer y cuarto año de estudio en todas las dimensiones, excepto en competencia motriz autopercibida. Estas diferencias se tradujeron en una disminución en las 3 variables significativas del primer al cuarto año. Respecto al inventario HBSC, en el Estudio Longitudinal, la prueba T mostró únicamente la existencia de diferencias significativas entre el primer y cuarto año en 2 de los 11 ítems: percepción de la forma física (p = .006) y percepción de la salud (p = .047), los cuales disminuyeron en el intervalo de tiempo del estudio. En el Transversal, las diferencias se observaron en función del género (p < .001) y de la edad (p < .001). Asimismo, se mostraron diferencias significativas en todos los ítems respecto al nivel de coordinación motriz, excepto en 2 de ellos: frecuencia tiempo libre con los amigos fuera del colegio (p = .580) y facilidad para hacer amigos en el centro escolar (p = .098). Por último, en las variables antropométricas, los resultados del Estudio Transversal y Longitudinal coinciden tanto en la estatura como en el peso, apuntando, que en ambos estudios, se produce un aumento progresivo tanto en chicos como en chicas a medida que se avanza en edad. Concretamente en el Transversal, estas diferencias en la edad se encuentran en todos los grupos en ambos géneros, excepto en el conjunto de chicas entre los 14 y los 15 años. Asimismo, ambos estudios coincidieron en que tanto las ganancias en cm y kg, como las puntuaciones medias, fueron mayores en los chicos que en las chicas. Respecto al IMC, los 2 estudios coincidieron en que la evolución es paralela, y tal y como apuntan los resultados del Transversal, no se encontraron diferencias ni en la edad (p = 792) ni en el género (p = 284). No obstante, el Longitudinal apuntó únicamente diferencias significativas entre el primer y cuarto año en el conjunto de los hombres [t(41) = -4.01, p < .001]. Finalmente, y en relación con los niveles de coordinación motriz, hubo diferencias significativas en relación con el IMC (p = .012), mostrando como el grupo de peso normal coincide con puntuaciones óptimas de coordinación motriz. A modo de conclusiones, el presente estudio revela cómo la adquisición de un nivel de coordinación óptimo va a ser fundamental para el desarrollo psicosocial, para el desarrollo de hábitos saludables de práctica y para mantener un IMC dentro de la normalidad para el género y la edad. De esta manera, el desarrollo de la coordinación motriz será un aspecto fundamental para lograr un estado de bienestar físico y mental, y unos hábitos favorables para la práctica de actividad física. ABSTRACT In the past couple of decades, adolescence stage in motor coordination gained significant interest in research especially due to its sensitive and critical importance to achieving a healthy life style. These studies observed how to acquire optimum levels of coordination and motor competence, which proved crucial to the quality of the adolescent stage in addition to being influenced by other dimensions of development for each individual. Recent research shed light to an alarming set of data, which showed increased motor coordination problems in children and adolescents (Cantell, Smyth & Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutierrez & Miyahara, 2003; Sugden & Chambers, 2005). For instance, even to the extent that buttoning a shirt or running in a harmonic form can lead to a whole set of consequences and difficulties on the development stage. Researchers have addressed such problems in various studies such as “dificultad oculta” (Gomez, Ruiz & Mata, 2006), which literally translates as “hidden trouble”. The studies are evidently present in the activities of daily life, sporting contexts, games and/or Physical Education (Ruiz, 2004). Concern about these difficulties spread internationally, creating a whole framework research studying the diagnosis of these problems, known under the acronym DCD (Developmental Coordination Disorder). The study focuses on the adolescent stage, transition period between childhood and adulthood characterized by numerous biological, cognitive and socio-emotional changes (Santrock, 2005), which interestingly determines an individual´s adaptation to the environment (Gallahue, Ozmun & Goodway, 2011; Gomez, Ruiz & Mata, 2006). The main purpose of the study is to analyse the development of motor coordination in the adolescent stage investigating gender differences and age in relation to psychological variables, physical activity habits and anthropometric variables. The research design is structured in two studies. The first (transversal nature), analyses a representative sample of 1,966 adolescents from 1st to 4th of Secondary Education School. The second (longitudinal nature) used a group of 89 teenagers from cross-sectional study, which were studied for four years, from 12 to 15 years. The same instruments were used in both studies, namely; “Sportcomp Test” used to evaluate of motor coordination; “AMPET4 Test” which assesses the motivational achievement of learning Physical Education; “HBSC Inventory” to find out the healthy habits gained from physical activities; And finally a “stadiometer” was used to obtain the weight and height and thus calculate the body mass index (BMI). The data collection of the cross-sectional Study was conducted in two academic years (2011/12 - 2012/13), in which 3 sessions coinciding with the Physical Education level are required. In the first session, motor coordination was evaluated; questionnaires were applied in the second session (AMPET4 and HBSC); and in the last session the weight and height were measured in a reserved space for the “stadiometer”. Notably, data analysis was descriptive and differential in each of the variable studies: motor, psychological, practical and anthropometric habits of physical activity. Thus the tests were conducted in a univariate and multivariate analysis, calculating the p-value and effect tests. Regarding the Longitudinal Study, data collection was carried out during four years from 2011 to 2014 inclusively. The assessment of motor coordination was performed on each of the four years, however, the 2 questionnaires and anthropometric measures were evaluated in the first and fourth year. Data analyses were also descriptive and comparative among the variables that were put to the test. In the case of motor coordination tests, they were done on repeated measures, whilst, in the case of other variables analysed, they were accomplished through T Tests under comparable samples. The overall results showed that the engine Motor Index in Study 1 was progressive in all male gender studies, however in the females the performance remained constant after reaching 13 years of age. For the Longitudinal Study, this index is stabilized in the first 3 years and at the age of 14 is when the gender differences take place. In the case of males, the performance improves, however, in females worsens. The cross-sectional Study, analysis of variance showed differences in terms of age [F(7, 1958) = 220.70, p < .001; η2 = .101], gender [F(7, 1958) = 29.76, p <.001; η2 = .044], as well as their interaction [F(7, 1958) = 11.90, p <.001; η2 = .018]. They only show significant differences in respect to age in the male set sample, in all groups except between 14 and 15 years old. In the Longitudinal, the multivariate contrasts showed no significant differences in time [F(3,85) = 0.05, p = 0.987, η2 = 0.002] showing a stable level of coordination over the years, but if there were differences between both genders [F(3,85) = 4.64, p = .005] it took place with a noteworthy effect size (η2 = .141). In regards, to the Motivational Achievement for learning Physical Education, in both studies the male sample administered obtained higher scores on all the positive dimensions of the test (commitment to learning, self-assessed competence, and comparable competence). However, on the negative assessment side, namely, anxiety and fear of failure, the female sample scored higher than the male one. In Study 1, the multivariate analysis showed significant differences between the psychosocial dimensions and levels of motor coordination with moderate to significant effect [Lambada de Wilks = .931, F(8, 3282) = 14.99; p = <0.001; η2 = .035]. By the same token, the groups with the best level of motor coordination were the highest scoring ones in the positive dimensions, whilst the lower performing ones, performed better in the negative dimension. In the longitudinal study, there is also differences were also found between the first and fourth years of study in all dimensions, except in self-perceived motor competition. These differences resulted in a significant decrease in the 3 variables from first to fourth year. Regarding, the “HBSC Inventory”, the T test in the longitudinal study showed uniquely the existence of significant differences between the first and fourth year in 2 of the 11 items: perception of physical fitness (p = .006) and perceived health (p = 047), which diminished in the interval time of the study. In the Cross-sectional study, the se differences were also observed in gender (p < .001) and age (p < .001). Similarly, they showed significant differences in all items in respect to the motor coordination level, except in 2 of them; frequency of free time with friends outside of school (p = .580) and the ease to make friends at the educational centre (p = 098). And last but not least, the anthropometric variables, both the results of the Transversal and Longitudinal Study matched both height and weight, pointing out that in both studies a gradual increase in both genders, as they grow older. Notably in the Cross-sectional, these differences in age are found in all groups in both genders, except for the set of girls between 14 and 15 years. Thus both studies concluded that both gains in cm and kg and the mean scores were higher amongst males compared to females. Regarding BMI, the 2 studies concluded that the evolution is parallel, and as pointed cross-sectional study there isn’t differences found in age (p = 792) or in gender (p = 284). However, the Longitudinal study uniquely shows significant difference between the first and fourth year for male set sample [t (41) = -4.01, p < .001]. Finally, in relation to levels of motor coordination, there were significant differences in relation to BMI (p = .012), showing how the “normal weight group” matches the optimal scores of motor coordination. In conclusion, this study reveals how the acquisition of an optimal level of coordination is vital for psychological development, to develop and practice healthy habits, and to maintain a BMI within the normal range for age and gender. Therefore, the development of motor coordination is fundamental to achieving a state of physical and mental wellbeing, and preferable habits to pursuing physical activity.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Energy storage at low maintenance cost is one of the key challenges for generating electricity from the solar energy. This paper presents the theoretical analysis (verified by CFD) of the night time performance of a recently proposed conceptual system that integrates thermal storage (via phase change materials) and thermophotovoltaics for power generation. These storage integrated solar thermophotovoltaic (SISTPV) systems are attractive owing to their simple design (no moving parts) and modularity compared to conventional Concentrated Solar Power (CSP) technologies. Importantly, the ability of high temperature operation of these systems allows the use of silicon (melting point of 1680 K) as the phase change material (PCM). Silicon's very high latent heat of fusion of 1800 kJ/kg and low cost ($1.70/kg), makes it an ideal heat storage medium enabling for an extremely high storage energy density and low weight modular systems. In this paper, the night time operation of the SISTPV system optimised for steady state is analysed. The results indicate that for any given PCM length, a combination of small taper ratio and large inlet hole-to-absorber area ratio are essential to increase the operation time and the average power produced during the night time. Additionally, the overall results show that there is a trade-off between running time and the average power produced during the night time. Average night time power densities as high as 30 W/cm(2) are possible if the system is designed with a small PCM length (10 cm) to operate just a few hours after sun-set, but running times longer than 72 h (3 days) are possible for larger lengths (50 cm) at the expense of a lower average power density of about 14 W/cm(2). In both cases the steady state system efficiency has been predicted to be about 30%. This makes SISTPV systems to be a versatile solution that can be adapted for operation in a broad range of locations with different climate conditions, even being used off-grid and in space applications.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.