97 resultados para errores en medidas experimentales

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las iglesias son espacios acústicos muy complejos conformados por subespacios de diferentes volúmenes. Una de las consecuencias de esta complejidad volumétrica es la aparición del fenómeno de acoplamiento acústico. A partir de medidas acústicas in situ realizadas en la Catedral de Toledo se ha llevado a cabo un análisis de las curvas de caída energética obtenidas experimentalmente en aquellos espacios que a priori son favorables a la aparición de dicho fenómeno acústico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of the novel experimental measures presented in this paper is to show the improvement achieved in the computation time for a 2D self-adaptive hp finite element method (FEM) software accelerated through the Adaptive Cross Approximation (ACA) method. This algebraic method (ACA) was presented in an previous paper in the hp context for the analysis of open region problems, where the robust behaviour, good accuracy and high compression levels of ACA were demonstrated. The truncation of the infinite domain is settled through an iterative computation of the Integral Equation (IE) over a ficticious boundary, which, regardless its accuracy and efficiency, turns out to be the bottelneck of the code. It will be shown that in this context ACA reduces drastically the computational effort of the problem.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este proyecto consiste en verificar si existen métodos de ajuste que nos permitan corregir observaciones que llevan introducidas un cierto error grosero. Este error puede ser cometido por el operador al realizar la toma de datos. Cuando se realiza el ajuste por el método clásico de una serie de observaciones que componen una red y éstas llevan incluidas un error grosero, el resultado del ajuste es totalmente inválido, ya que este método tiende a repartir los errores cometidos entre todas las observaciones dando como resultado residuos muy elevados. Normalmente, ante este tipo de casos, el usuario responde invalidando las observaciones con mayor residuo y procediendo a realizar el ajuste sin contar con las observaciones que se anularon. Para llevar a cabo este proceso, debe haber redundancia en la toma de datos, ya que si no se dispusiera de la misma, no podrían eliminarse observaciones. Nuestro objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma al usuario corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que nuestra investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas en las que todavía no han sido utilizados. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado y las conclusiones del mismo han sido muy favorables, como se puede comprobar más adelante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Previamente se ha establecido que un parámetro que permite cuantificar la variación espacial de L2 es su desviación estándar. Dados los múltiples factores de los que depende la transmisión del sonido es difícil establecer un modelo teórico que permita explicar la dependencia espectral de este parámetro. En este trabajo se analiza el efecto de la desviación estándar de la vibración no solo de la pared separadora sino de todas las paredes que delimitan el volumen del recinto receptor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este proyecto se basa en comprobar si es posible encontrar métodos de ajuste con los que poder corregir observaciones altimétricas con errores groseros, que pueden ser causados por el operador al realizar la observación o por otras circunstancias. El ajuste por el método clásico de mínimos cuadrados tiende a repartir los errores cometidos entre todas las observaciones, lo que da como resultado residuos muy elevados cuando se realiza el ajuste de una red cuyas observaciones poseen un error grosero o varios. Habitualmente, siempre y cuando haya redundancia en la toma de datos, se procederá a quitar la observación con mayor residuo y se realizará de nuevo el ajuste sin tener en cuenta dicha observación. También se estudiará el Test de Baarda y su comportamiento según sea el error cometido y el número de errores groseros que aparezcan en el ajuste. Pero el objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que esta investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado en altimetría y me inspiró un proyecto realizado anteriormente bastante similar a este pero centrándose en planimetría, con conclusiones muy favorables, lo que me animó a continuarlo centrándome en la altimetría.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la mayoría de problemas de decisión a los que nos enfrentamos no hay evidencia sobre cuál es la mejor elección debido a la complejidad de los mismos. Esta complejidad está asociada a la existencia de múltiples objetivos conflictivos y a que en muchos casos solo se dispone de información incompleta o imprecisa sobre los distintos parámetros del modelo de decisión. Por otro lado, el proceso de toma de decisiones se puede realizar en grupo, debiendo incorporar al modelo las preferencias individuales de cada uno de los decisores y, posteriormente, agregarlas para alcanzar un consenso final, lo que dificulta más todavía el proceso de decisión. La metodología del Análisis de Decisiones (AD) es un procedimiento sistemático y lógico que permite estructurar y simplificar la tarea de tomar decisiones. Utiliza la información existente, datos recogidos, modelos y opiniones profesionales para cuantificar la probabilidad de los valores o impactos de las alternativas y la Teoría de la Utilidad para cuantificar las preferencias de los decisores sobre los posibles valores de las alternativas. Esta tesis doctoral se centra en el desarrollo de extensiones del modelo multicriterio en utilidad aditivo para toma de decisiones en grupo con veto en base al AD y al concepto de la intensidad de la dominancia, que permite explotar la información incompleta o imprecisa asociada a los parámetros del modelo. Se considera la posibilidad de que la importancia relativa que tienen los criterios del problema para los decisores se representa mediante intervalos de valores o información ordinal o mediante números borrosos trapezoidales. Adicionalmente, se considera que los decisores tienen derecho a veto sobre los valores de los criterios bajo consideración, pero solo un subconjunto de ellos es efectivo, teniéndose el resto solo en cuenta de manera parcial. ABSTRACT In most decision-making problems, the best choice is unclear because of their complexity. This complexity is mainly associated with the existence of multiple conflicting objectives. Besides, there is, in many cases, only incomplete or inaccurate information on the various decision model parameters. Alternatively, the decision-making process may be performed by a group. Consequently, the model must account for individual preferences for each decision-maker (DM), which have to be aggregated to reach a final consensus. This makes the decision process even more difficult. The decision analysis (DA) methodology is a systematic and logical procedure for structuring and simplifying the decision-making task. It takes advantage of existing information, collected data, models and professional opinions to quantify the probability of the alternative values or impacts and utility theory to quantify the DM’s preferences concerning the possible alternative values. This PhD. thesis focuses on developing extensions for a multicriteria additive utility model for group decision-making accounting for vetoes based on DA and on the concept of dominance intensity in order to exploit incomplete or imprecise information associated with the parameters of the decision-making model. We consider the possibility of the relative importance of criteria for DMs being represented by intervals or ordinal information, or by trapezoidal fuzzy numbers. Additionally, we consider that DMs are allowed to provide veto values for the criteria under consideration, of which only a subset are effective, whereas the remainder are only partially taken into account.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fisuración iniciada en la superficie de los pavimentos asfálticos constituye uno de los más frecuentes e importantes modos de deterioro que tienen lugar en los firmes bituminosos, como han demostrado los estudios teóricos y experimentales llevados a cabo en la última década. Sin embargo, este mecanismo de fallo no ha sido considerado por los métodos tradicionales de diseño de estos firmes. El concepto de firmes de larga duración se fundamenta en un adecuado seguimiento del proceso de avance en profundidad de estos deterioros y la intervención en el momento más apropiado para conseguir mantenerlos confinados como fisuras de profundidad parcial en la capa superficial más fácilmente accesible y reparable, de manera que pueda prolongarse la durabilidad y funcionalidad del firme y reducir los costes generalizados de su ciclo de vida. Por lo tanto, para la selección de la estrategia óptima de conservación de los firmes resulta esencial disponer de metodologías que posibiliten la identificación precisa in situ de la fisuración descendente, su seguimiento y control, y que además permitan una determinación fiable y con alto rendimiento de su profundidad y extensión. En esta Tesis Doctoral se presentan los resultados obtenidos mediante la investigación sistemática de laboratorio e in situ llevada a cabo para la obtención de datos sobre fisuración descendente en firmes asfálticos y para el estudio de procedimientos de evaluación de la profundidad de este tipo de fisuras empleando técnicas de ultrasonidos. Dichos resultados han permitido comprobar que la metodología no destructiva propuesta, de rápida ejecución, bajo coste y sencilla implementación (principalmente empleada hasta el momento en estructuras metálicas y de hormigón, debido a las dificultades que introduce la naturaleza viscoelástica de los materiales bituminosos) puede ser aplicada con suficiente fiabilidad y repetibilidad sobre firmes asfálticos. Las medidas resultan asimismo independientes del espesor total del firme. Además, permite resolver algunos de los inconvenientes frecuentes que presentan otros métodos de diagnóstico de las fisuras de pavimentos, tales como la extracción de testigos (sistema destructivo, de alto coste y prolongados tiempos de interrupción del tráfico) o algunas otras técnicas no destructivas como las basadas en medidas de deflexiones o el georradar, las cuales no resultan suficientemente precisas para la investigación de fisuras superficiales. Para ello se han realizado varias campañas de ensayos sobre probetas de laboratorio en las que se han estudiado diferentes condiciones empíricas como, por ejemplo, distintos tipos de mezclas bituminosas en caliente (AC, SMA y PA), espesores de firme y adherencias entre capas, temperaturas, texturas superficiales, materiales de relleno y agua en el interior de las grietas, posición de los sensores y un amplio rango de posibles profundidades de fisura. Los métodos empleados se basan en la realización de varias medidas de velocidad o de tiempo de transmisión del pulso ultrasónico sobre una única cara o superficie accesible del material, de manera que resulte posible obtener un coeficiente de transmisión de la señal (mediciones relativas o autocompensadas). Las mediciones se han realizado a bajas frecuencias de excitación mediante dos equipos de ultrasonidos diferentes dotados, en un caso, de transductores de contacto puntual seco (DPC) y siendo en el otro instrumento de contacto plano a través de un material especialmente seleccionado para el acoplamiento (CPC). Ello ha permitido superar algunos de los tradicionales inconvenientes que presenta el uso de los transductores convencionales y no precisar preparación previa de las superficies. La técnica de autocalibración empleada elimina los errores sistemáticos y la necesidad de una calibración local previa, demostrando el potencial de esta tecnología. Los resultados experimentales han sido comparados con modelos teóricos simplificados que simulan la propagación de las ondas ultrasónicas en estos materiales bituminosos fisurados, los cuales han sido deducidos previamente mediante un planteamiento analítico y han permitido la correcta interpretación de dichos datos empíricos. Posteriormente, estos modelos se han calibrado mediante los resultados de laboratorio, proporcionándose sus expresiones matemáticas generalizadas y gráficas para su uso rutinario en las aplicaciones prácticas. Mediante los ensayos con ultrasonidos efectuados en campañas llevadas a cabo in situ, acompañados de la extracción de testigos del firme, se han podido evaluar los modelos propuestos. El máximo error relativo promedio en la estimación de la profundidad de las fisuras al aplicar dichos modelos no ha superado el 13%, con un nivel de confianza del 95%, en el conjunto de todos los ensayos realizados. La comprobación in situ de los modelos ha permitido establecer los criterios y las necesarias recomendaciones para su utilización sobre firmes en servicio. La experiencia obtenida posibilita la integración de esta metodología entre las técnicas de auscultación para la gestión de su conservación. Abstract Surface-initiated cracking of asphalt pavements constitutes one of the most frequent and important types of distress that occur in flexible bituminous pavements, as clearly has been demonstrated in the technical and experimental studies done over the past decade. However, this failure mechanism has not been taken into consideration for traditional methods of flexible pavement design. The concept of long-lasting pavements is based on adequate monitoring of the depth and extent of these deteriorations and on intervention at the most appropriate moment so as to contain them in the surface layer in the form of easily-accessible and repairable partial-depth topdown cracks, thereby prolonging the durability and serviceability of the pavement and reducing the overall cost of its life cycle. Therefore, to select the optimal maintenance strategy for perpetual pavements, it becomes essential to have access to methodologies that enable precise on-site identification, monitoring and control of top-down propagated cracks and that also permit a reliable, high-performance determination of the extent and depth of cracking. This PhD Thesis presents the results of systematic laboratory and in situ research carried out to obtain information about top-down cracking in asphalt pavements and to study methods of depth evaluation of this type of cracking using ultrasonic techniques. These results have demonstrated that the proposed non-destructive methodology –cost-effective, fast and easy-to-implement– (mainly used to date for concrete and metal structures, due to the difficulties caused by the viscoelastic nature of bituminous materials) can be applied with sufficient reliability and repeatability to asphalt pavements. Measurements are also independent of the asphalt thickness. Furthermore, it resolves some of the common inconveniences presented by other methods used to evaluate pavement cracking, such as core extraction (a destructive and expensive procedure that requires prolonged traffic interruptions) and other non-destructive techniques, such as those based on deflection measurements or ground-penetrating radar, which are not sufficiently precise to measure surface cracks. To obtain these results, extensive tests were performed on laboratory specimens. Different empirical conditions were studied, such as various types of hot bituminous mixtures (AC, SMA and PA), differing thicknesses of asphalt and adhesions between layers, varied temperatures, surface textures, filling materials and water within the crack, different sensor positions, as well as an ample range of possible crack depths. The methods employed in the study are based on a series of measurements of ultrasonic pulse velocities or transmission times over a single accessible side or surface of the material that make it possible to obtain a signal transmission coefficient (relative or auto-calibrated readings). Measurements were taken at low frequencies by two short-pulse ultrasonic devices: one equipped with dry point contact transducers (DPC) and the other with flat contact transducers that require a specially-selected coupling material (CPC). In this way, some of the traditional inconveniences presented by the use of conventional transducers were overcome and a prior preparation of the surfaces was not required. The auto-compensating technique eliminated systematic errors and the need for previous local calibration, demonstrating the potential for this technology. The experimental results have been compared with simplified theoretical models that simulate ultrasonic wave propagation in cracked bituminous materials, which had been previously deduced using an analytical approach and have permitted the correct interpretation of the aforementioned empirical results. These models were subsequently calibrated using the laboratory results, providing generalized mathematical expressions and graphics for routine use in practical applications. Through a series of on-site ultrasound test campaigns, accompanied by asphalt core extraction, it was possible to evaluate the proposed models, with differences between predicted crack depths and those measured in situ lower than 13% (with a confidence level of 95%). Thereby, the criteria and the necessary recommendations for their implementation on in-service asphalt pavements have been established. The experience obtained through this study makes it possible to integrate this methodology into the evaluation techniques for pavement management systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido a la existencia de recomendaciones europeas que establecen valores por defecto ante la ausencia de datos en el proceso de realización de un mapa de ruido [1], se ha evaluado la influencia de aplicar dichos valores en un caso concreto como es el mapa estratégico de ruido de Palma de Mallorca. Se compararon los resultados de la simulación tras aplicar dichos valores por defecto con niveles de ruido obtenidos mediante medidas experimentales y se analizaron las desviaciones para determinar la calidad del modelo. Después de obtener un primer resultado de calidad inaceptable, se ha cuantificado la mejora de los resultados tras la utilización de datos de entrada de mayor calidad al modelo acústico. Este análisis demuestra que el uso de datos por defecto, en ausencia de datos de entrada de mayor calidad, genera unos resultados con desviaciones superiores a los 9 dB. Consecuentemente, se obtuvieron nuevos datos de entrada al modelo con mayor calidad, analizando su efecto en la reducción de la incertidumbre del resultado final del mapa de ruido. El proceso de obtención de dichos datos consistió en el desarrollo de una actualización de los datos de tráfico con mayor número de datos de flujo; la implementación de una nueva categorización viaria; y la utilización de técnicas novedosas para la adquisición de composición y velocidad de tráfico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este artículo se muestra una metodología y unas expresiones para el análisis del sostenimiento en túneles construidos mediante el Nuevo Método Austríaco (NTAM). Este método está basado en medidas muy robustas debido a su exactitud y de fácil obtención. En este artículo se desarrollan unas expresiones prácticas para la identificación de presiones radiales de interfase y de las tensiones en el hormigón del sostenimiento de túneles. Los datos básicos de partida son las convergencias medidas (o ajustadas) del sostenimiento. Sobre estos datos es preciso hacer las siguientes consideraciones: el sostenimiento de avance soportará, hasta la inclusión de la destroza, la convergencia AA ajustada. En el caso de que haya sido necesario el regunitado, el rebulonado o cualquier otra modificación de la rigidez, se deben separar las convergencias medidas hasta la fecha de tal operación de las ocurridas posteriormente, analizándolas por separado y sumando posteriormente las presiones y tensiones de ambas fases. Con esta consideración el método se basa en datos muy robustos cuya evolución es conocida por lo que es sencillo detectar cualquier error en los mismos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La concentración fotovoltaica (CPV) es una de las formas más prometedoras de reducir el coste de la energía proveniente del sol. Esto es posible gracias a células solares de alta eficiencia y a una significativa reducción del tamaño de la misma, que está fabricada con costosos materiales semiconductores. Ambos aspectos están íntimamente ligados ya que las altas eficiencias solamente son posibles con materiales y tecnologías de célula caros, lo que forzosamente conlleva una reducción del tamaño de la célula si se quiere lograr un sistema rentable. La reducción en el tamaño de las células requiere que la luz proveniente del sol ha de ser redirigida (es decir, concentrada) hacia la posición de la célula. Esto se logra colocando un concentrador óptico encima de la célula. Estos concentradores para CPV están formados por diferentes elementos ópticos fabricados en materiales baratos, con el fin de reducir los costes de producción. El marco óptimo para el diseño de concentradores es la óptica anidólica u óptica nonimaging. La óptica nonimaging fue desarrollada por primera vez en la década de los años sesenta y ha ido evolucionando significativamente desde entonces. El objetivo de los diseños nonimaging es la transferencia eficiente de energía entre la fuente y el receptor (sol y célula respectivamente, en el caso de la CPV), sin tener en cuenta la formación de imagen. Los sistemas nonimaging suelen ser simples, están compuestos de un menor número de superficies que los sistemas formadores de imagen y son más tolerantes a errores de fabricación. Esto hace de los sistemas nonimaging una herramienta fundamental, no sólo en el diseño de concentradores fotovoltaicos, sino también en el diseño de otras aplicaciones como iluminación, proyección y comunicaciones inalámbricas ópticas. Los concentradores ópticos nonimaging son adecuados para aplicaciones CPV porque el objetivo no es la reproducción de una imagen exacta del sol (como sería el caso de las ópticas formadoras de imagen), sino simplemente la colección de su energía sobre la célula solar. Los concentradores para CPV pueden presentar muy diferentes arquitecturas y elementos ópticos, dando lugar a una gran variedad de posibles diseños. El primer elemento óptico que es atravesado por la luz del sol se llama Elemento Óptico Primario (POE en su nomenclatura anglosajona) y es el elemento más determinante a la hora de definir la forma y las propiedades del concentrador. El POE puede ser refractivo (lente) o reflexivo (espejo). Esta tesis se centra en los sistemas CPV que presentan lentes de Fresnel como POE, que son lentes refractivas delgadas y de bajo coste de producción que son capaces de concentrar la luz solar. El capítulo 1 expone una breve introducción a la óptica geométrica y no formadora de imagen (nonimaging), explicando sus fundamentos y conceptos básicos. Tras ello, la integración Köhler es presentada en detalle, explicando sus principios, válidos tanto para aplicaciones CPV como para iluminación. Una introducción a los conceptos fundamentales de CPV también ha sido incluida en este capítulo, donde se analizan las propiedades de las células solares multiunión y de los concentradores ópticos empleados en los sistemas CPV. El capítulo se cierra con una descripción de las tecnologías existentes empleadas para la fabricación de elementos ópticos que componen los concentradores. El capítulo 2 se centra principalmente en el diseño y desarrollo de los tres concentradores ópticos avanzados Fresnel Köhler que se presentan en esta tesis: Fresnel-Köhler (FK), Fresnel-Köhler curvo (DFK) y Fresnel-Köhler con cavidad (CFK). Todos ellos llevan a cabo integración Köhler y presentan una lente de Fresnel como su elemento óptico primario. Cada uno de estos concentradores CPV presenta sus propias propiedades y su propio procedimiento de diseño. Además, presentan todas las características que todo concentrador ha de tener: elevado factor de concentración, alta tolerancia de fabricación, alta eficiencia óptica, irradiancia uniforme sobre la superficie de la célula y bajo coste de producción. Los concentradores FK y DFK presentan una configuración de cuatro sectores para lograr la integración Köhler. Esto quiere decir que POE y SOE se dividen en cuatro sectores simétricos cada uno, y cada sector del POE trabaja conjuntamente con su correspondiente sector de SOE. La principal diferencia entre los dos concentradores es que el POE del FK es una lente de Fresnel plana, mientras que una lente curva de Fresnel es empleada como POE del DFK. El concentrador CFK incluye una cavidad de confinamiento externo integrada, que es un elemento óptico capaz de recuperar los rayos reflejados por la superficie de la célula con el fin de ser reabsorbidos por la misma. Por tanto, se aumenta la absorción de la luz, lo que implica un aumento en la eficiencia del módulo. Además, este capítulo también explica un método de diseño alternativo para los elementos faceteados, especialmente adecuado para las lentes curvas como el POE del DFK. El capítulo 3 se centra en la caracterización y medidas experimentales de los concentradores ópticos presentados en el capítulo 2, y describe sus procedimientos. Estos procedimientos son en general aplicables a cualquier concentrador basado en una lente de Fresnel, e incluyen tres tipos principales de medidas experimentales: eficiencia eléctrica, ángulo de aceptancia y uniformidad de la irradiancia en el plano de la célula. Los resultados que se muestran a lo largo de este capítulo validarán a través de medidas a sol real las características avanzadas que presentan los concentradores Köhler, y que se demuestran en el capítulo 2 mediante simulaciones de rayos. Cada concentrador (FK, DFK y CFK) está diseñado y optimizado teniendo en cuenta condiciones de operación realistas. Su rendimiento se modela de forma exhaustiva mediante el trazado de rayos en combinación con modelos distribuidos para la célula. La tolerancia es un asunto crítico de cara al proceso de fabricación, y ha de ser máxima para obtener sistemas de producción en masa rentables. Concentradores con tolerancias limitadas generan bajadas significativas de eficiencia a nivel de array, causadas por el desajuste de corrientes entre los diferentes módulos (principalmente debido a errores de alineación en la fabricación). En este sentido, la sección 3.5 presenta dos métodos matemáticos que estiman estas pérdidas por desajuste a nivel de array mediante un análisis de sus curvas I-V, y por tanto siendo innecesarias las medidas a nivel de mono-módulo. El capítulo 3 también describe la caracterización indoor de los elementos ópticos que componen los concentradores, es decir, de las lentes de Fresnel que actúan como POE y de los secundarios free-form. El objetivo de esta caracterización es el de evaluar los adecuados perfiles de las superficies y las transmisiones ópticas de los diferentes elementos analizados, y así hacer que el rendimiento del módulo sea el esperado. Esta tesis la cierra el capítulo 4, en el que la integración Köhler se presenta como una buena alternativa para obtener distribuciones uniformes en aplicaciones de iluminación de estado sólido (iluminación con LED), siendo particularmente eficaz cuando se requiere adicionalmente una buena mezcla de colores. En este capítulo esto se muestra a través del ejemplo particular de un concentrador DFK, el cual se ha utilizado para aplicaciones CPV en los capítulos anteriores. Otra alternativa para lograr mezclas cromáticas apropiadas está basada en un método ya conocido (deflexiones anómalas), y también se ha utilizado aquí para diseñar una lente TIR aplanética delgada. Esta lente cumple la conservación de étendue, asegurando así que no hay bloqueo ni dilución de luz simultáneamente. Ambos enfoques presentan claras ventajas sobre las técnicas clásicas empleadas en iluminación para obtener distribuciones de iluminación uniforme: difusores y mezcla caleidoscópica mediante guías de luz. ABSTRACT Concentrating Photovoltaics (CPV) is one of the most promising ways of reducing the cost of energy collected from the sun. This is possible thanks to both, very high-efficiency solar cells and a large decrease in the size of cells, which are made of costly semiconductor materials. Both issues are closely linked since high efficiency values are only possible with expensive cell materials and technologies, implying a compulsory area reduction if cost-effectiveness is desired. The reduction in the cell size requires that light coming from the sun must be redirected (i.e. concentrated) towards the cell position. This is achieved by placing an optical concentrator system on top of the cell. These CPV concentrators consist of different optical elements manufactured on cheap materials in order to maintain low production costs. The optimal framework for the design of concentrators is nonimaging optics. Nonimaging optics was first developed in the 60s decade and has been largely developed ever since. The aim of nonimaging devices is the efficient transfer of light power between the source and the receiver (sun and cell respectively in the case of CPV), disregarding image formation. Nonimaging systems are usually simple, comprised of fewer surfaces than imaging systems and are more tolerant to manufacturing errors. This renders nonimaging optics a fundamental tool, not only in the design of photovoltaic concentrators, but also in the design of other applications as illumination, projection and wireless optical communications. Nonimaging optical concentrators are well suited for CPV applications because the goal is not the reproduction of an exact image of the sun (as imaging optics would provide), but simply the collection of its energy on the solar cell. Concentrators for CPV may present very different architectures and optical elements, resulting in a vast variety of possible designs. The first optical element that sunlight goes through is called the Primary Optical Element (POE) and is the most determinant element in order to define the shape and properties of the whole concentrator. The POE can be either refractive (lens) or reflective (mirror). This thesis focuses on CPV systems based on Fresnel lenses as POE, which are thin and inexpensive refractive lenses able to concentrate sunlight. Chapter 1 exposes a short introduction to geometrical and nonimaging optics, explaining their fundamentals and basic concepts. Then, the Köhler integration is presented in detail, explaining its principles, valid for both applications: CPV and illumination. An introduction to CPV fundamental concepts is also included in this chapter, analyzing the properties of multijunction solar cells and optical concentrators employed in CPV systems. The chapter is closed with a description of the existing technologies employed for the manufacture of optical elements composing the concentrator. Chapter 2 is mainly devoted to the design and development of the three advanced Fresnel Köhler optical concentrators presented in this thesis work: Fresnel-Köhler (FK), Dome-shaped Fresnel-Köhler (DFK) and Cavity Fresnel-Köhler (CFK). They all perform Köhler integration and comprise a Fresnel lens as their Primary Optical Element. Each one of these CPV concentrators presents its own characteristics, properties and its own design procedure. Their performances include all the key issues in a concentrator: high concentration factor, large tolerances, high optical efficiency, uniform irradiance on the cell surface and low production cost. The FK and DFK concentrators present a 4-fold configuration in order to perform the Köhler integration. This means that POE and SOE are divided into four symmetric sectors each one, working each POE sector with its corresponding SOE sector by pairs. The main difference between both concentrators is that the POE of the FK is a flat Fresnel lens, while a dome-shaped (curved) Fresnel lens performs as the DFK’s POE. The CFK concentrator includes an integrated external confinement cavity, which is an optical element able to recover rays reflected by the cell surface in order to be re-absorbed by the cell. It increases the light absorption, entailing an increase in the efficiency of the module. Additionally, an alternative design method for faceted elements will also be explained, especially suitable for dome-shaped lenses as the POE of the DFK. Chapter 3 focuses on the characterization and experimental measurements of the optical concentrators presented in Chapter 2, describing their procedures. These procedures are in general applicable to any Fresnel-based concentrator as well and include three main types of experimental measurements: electrical efficiency, acceptance angle and irradiance uniformity at the solar cell plane. The results shown along this chapter will validate through outdoor measurements under real sun operation the advanced characteristics presented by the Köhler concentrators, which are demonstrated in Chapter 2 through raytrace simulation: high optical efficiency, large acceptance angle, insensitivity to manufacturing tolerances and very good irradiance uniformity on the cell surface. Each concentrator (FK, DFK and CFK) is designed and optimized looking at realistic performance characteristics. Their performances are modeled exhaustively using ray tracing combined with cell modeling, taking into account the major relevant factors. The tolerance is a critical issue when coming to the manufacturing process in order to obtain cost-effective mass-production systems. Concentrators with tight tolerances result in significant efficiency drops at array level caused by current mismatch among different modules (mainly due to manufacturing alignment errors). In this sense, Section 3.5 presents two mathematical methods that estimate these mismatch losses for a given array just by analyzing its full-array I-V curve, hence being unnecessary any single mono-module measurement. Chapter 3 also describes the indoor characterization of the optical elements composing the concentrators, i.e. the Fresnel lenses acting as POEs and the free-form SOEs. The aim of this characterization is to assess the proper surface profiles and optical transmissions of the different elements analyzed, so they will allow for the expected module performance. This thesis is closed by Chapter 4, in which Köhler integration is presented as a good approach to obtain uniform distributions in Solid State Lighting applications (i.e. illumination with LEDs), being particularly effective when dealing with color mixing requirements. This chapter shows it through the particular example of a DFK concentrator, which has been used for CPV applications in the previous chapters. An alternative known method for color mixing purposes (anomalous deflections) has also been used to design a thin aplanatic TIR lens. This lens fulfills conservation of étendue, thus ensuring no light blocking and no light dilution at the same time. Both approaches present clear advantages over the classical techniques employed in lighting to obtain uniform illumination distributions: diffusers and kaleidoscopic lightpipe mixing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se presenta un modelo mecánico que permite relacionar la microdureza de polímeros con la carga aplicada. Los resultados de las medidas experimentales realizadas sobre polietilenos de diferentes tipos se han ajustado al modelo y se discuten los coeficientes resultantes del ajuste. A partir de los valores de estos coeficientes se propone un criterio para la selección de la carga a aplicar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Energía eléctrica producida mediante tecnología eólica flotante es uno de los recursos más prometedores para reducir la dependencia de energía proveniente de combustibles fósiles. Esta tecnología es de especial interés en países como España, donde la plataforma continental es estrecha y existen pocas áreas para el desarrollo de estructuras fijas. Entre los diferentes conceptos flotantes, esta tesis se ha ocupado de la tipología semisumergible. Estas plataformas pueden experimentar movimientos resonantes en largada y arfada. En largada, dado que el periodo de resonancia es largo estos puede ser inducidos por efectos de segundo orden de deriva lenta que pueden tener una influencia muy significativa en las cargas en los fondeos. En arfada las fuerzas de primer orden pueden inducir grandes movimientos y por tanto la correcta determinación del amortiguamiento es esencial para la analizar la operatividad de la plataforma. Esta tesis ha investigado estos dos efectos, para ello se ha usado como caso base el diseño de una plataforma desarrollada en el proyecto Europeo Hiprwind. La plataforma se compone de 3 columnas cilíndricas unidas mediante montantes estructurales horizontales y diagonales, Los cilindros proporcionan flotabilidad y momentos adrizante. A la base de cada columna se le ha añadido un gran “Heave Plate” o placa de cierre. El diseño es similar a otros diseños previos (Windfloat). Se ha fabricado un modelo a escala de una de las columnas para el estudio detallado del amortiguamiento mediante oscilaciones forzadas. Las dimensiones del modelo (1m diámetro en la placa de cierre) lo hacen, de los conocidos por el candidato, el mayor para el que se han publicado datos. El diseño del cilindro se ha realizado de tal manera que permite la fijación de placas de cierre planas o con refuerzo, ambos modelos se han fabricado y analizado. El modelo con refuerzos es una reproducción exacta del diseño a escala real incluyendo detalles distintivos del mismo, siendo el más importante la placa vertical perimetral. Los ensayos de oscilaciones forzadas se han realizado para un rango de frecuencias, tanto para el disco plano como el reforzado. Se han medido las fuerzas durante los ensayos y se han calculado los coeficientes de amortiguamiento y de masa añadida. Estos coeficientes son necesarios para el cálculo del fondeo mediante simulaciones en el dominio del tiempo. Los coeficientes calculados se han comparado con la literatura existente, con cálculos potenciales y por ultimo con cálculos CFD. Para disponer de información relevante para el diseño estructural de la plataforma se han medido y analizado experimentalmente las presiones en la parte superior e inferior de cada placa de cierre. Para la correcta estimación numérica de las fuerzas de deriva lenta en la plataforma se ha realizado una campaña experimental que incluye ensayos con modelo cautivo de la plataforma completa en olas bicromaticas. Pese a que estos experimentos no reproducen un escenario de oleaje realista, los mismos permiten una verificación del modelo numérico mediante la comparación de fuerzas medidas en el modelo físico y el numérico. Como resultados de esta tesis podemos enumerar las siguientes conclusiones. 1. El amortiguamiento y la masa añadida muestran una pequeña dependencia con la frecuencia pero una gran dependencia con la amplitud del movimiento. siendo coherente con investigaciones existentes. 2. Las medidas con la placa de cierre reforzada con cierre vertical en el borde, muestra un amortiguamiento significativamente menor comparada con la placa plana. Esto implica que para ensayos de canal es necesario incluir estos detalles en el modelo. 3. La masa añadida no muestra grandes variaciones comparando placa plana y placa con refuerzos. 4. Un coeficiente de amortiguamiento del 6% del crítico se puede considerar conservador para el cálculo en el dominio de la frecuencia. Este amortiguamiento es equivalente a un coeficiente de “drag” de 4 en elementos de Morison cuadráticos en las placas de cierre usadas en simulaciones en el dominio del tiempo. 5. Se han encontrado discrepancias en algunos valores de masa añadida y amortiguamiento de la placa plana al comparar con datos publicados. Se han propuesto algunas explicaciones basadas en las diferencias en la relación de espesores, en la distancia a la superficie libre y también relacionadas con efectos de escala. 6. La presión en la placa con refuerzos son similares a las de la placa plana, excepto en la zona del borde donde la placa con refuerzo vertical induce una gran diferencias de presiones entre la cara superior e inferior. 7. La máxima diferencia de presión escala coherentemente con la fuerza equivalente a la aceleración de la masa añadida distribuida sobre la placa. 8. Las masas añadidas calculadas con el código potencial (WADAM) no son suficientemente precisas, Este software no contempla el modelado de placas de pequeño espesor con dipolos, la poca precisión de los resultados aumenta la importancia de este tipo de elementos al realizar simulaciones con códigos potenciales para este tipo de plataformas que incluyen elementos de poco espesor. 9. Respecto al código CFD (Ansys CFX) la precisión de los cálculos es razonable para la placa plana, esta precisión disminuye para la placa con refuerzo vertical en el borde, como era de esperar dado la mayor complejidad del flujo. 10. Respecto al segundo orden, los resultados, en general, muestran que, aunque la tendencia en las fuerzas de segundo orden se captura bien con los códigos numéricos, se observan algunas reducciones en comparación con los datos experimentales. Las diferencias entre simulaciones y datos experimentales son mayores al usar la aproximación de Newman, que usa únicamente resultados de primer orden para el cálculo de las fuerzas de deriva media. 11. Es importante remarcar que las tendencias observadas en los resultados con modelo fijo cambiarn cuando el modelo este libre, el impacto que los errores en las estimaciones de fuerzas segundo orden tienen en el sistema de fondeo dependen de las condiciones ambientales que imponen las cargas ultimas en dichas líneas. En cualquier caso los resultados que se han obtenido en esta investigación confirman que es necesaria y deseable una detallada investigación de los métodos usados en la estimación de las fuerzas no lineales en las turbinas flotantes para que pueda servir de guía en futuros diseños de estos sistemas. Finalmente, el candidato espera que esta investigación pueda beneficiar a la industria eólica offshore en mejorar el diseño hidrodinámico del concepto semisumergible. ABSTRACT Electrical power obtained from floating offshore wind turbines is one of the promising resources which can reduce the fossil fuel energy consumption and cover worldwide energy demands. The concept is the most competitive in countries, such as Spain, where the continental shelf is narrow and does not provide space for fixed structures. Among the different floating structures concepts, this thesis has dealt with the semisubmersible one. Platforms of this kind may experience resonant motions both in surge and heave directions. In surge, since the platform natural period is long, such resonance can be excited with second order slow drift forces and may have substantial influence on mooring loads. In heave, first order forces can induce significant motion, whose damping is a crucial factor for the platform downtime. These two topics have been investigated in this thesis. To this aim, a design developed during HiPRWind EU project, has been selected as reference case study. The platform is composed of three cylindrical legs, linked together by a set of structural braces. The cylinders provide buoyancy and restoring forces and moments. Large circular heave plates have been attached to their bases. The design is similar to other documented in literature (e.g. Windfloat), which implies outcomes could have a general value. A large scale model of one of the legs has been built in order to study heave damping through forced oscillations. The final dimensions of the specimen (one meter diameter discs) make it, to the candidate’s knowledge, the largest for which data has been published. The model design allows for the fitting of either a plain solid heave plate or a flapped reinforced one; both have been built. The latter is a model scale reproduction of the prototype heave plate and includes some distinctive features, the most important being the inclusion of a vertical flap on its perimeter. The forced oscillation tests have been conducted for a range of frequencies and amplitudes, with both the solid plain model and the vertical flap one. Forces have been measured, from which added mass and damping coefficients have been obtained. These are necessary to accurately compute time-domain simulations of mooring design. The coefficients have been compared with literature, and potential flow and CFD predictions. In order to provide information for the structural design of the platform, pressure measurements on the top and bottom side of the heave discs have been recorded and pressure differences analyzed. In addition, in order to conduct a detailed investigation on the numerical estimations of the slow-drift forces of the HiPRWind platform, an experimental campaign involving captive (fixed) model tests of a model of the whole platform in bichromatic waves has been carried out. Although not reproducing the more realistic scenario, these tests allowed a preliminary verification of the numerical model based directly on the forces measured on the structure. The following outcomes can be enumerated: 1. Damping and added mass coefficients show, on one hand, a small dependence with frequency and, on the other hand, a large dependence with the motion amplitude, which is coherent with previously published research. 2. Measurements with the prototype plate, equipped with the vertical flap, show that damping drops significantly when comparing this to the plain one. This implies that, for tank tests of the whole floater and turbine, the prototype plate, equipped with the flap, should be incorporated to the model. 3. Added mass values do not suffer large alterations when comparing the plain plate and the one equipped with a vertical flap. 4. A conservative damping coefficient equal to 6% of the critical damping can be considered adequate for the prototype heave plate for frequency domain analysis. A corresponding drag coefficient equal to 4.0 can be used in time domain simulations to define Morison elements. 5. When comparing to published data, some discrepancies in added mass and damping coefficients for the solid plain plate have been found. Explanations have been suggested, focusing mainly on differences in thickness ratio and distance to the free surface, and eventual scale effects. 6. Pressures on the plate equipped with the vertical flap are similar in magnitude to those of the plain plate, even though substantial differences are present close to the edge, where the flap induces a larger pressure difference in the reinforced case. 7. The maximum pressure difference scales coherently with the force equivalent to the acceleration of the added mass, distributed over the disc surface. 8. Added mass coefficient values predicted with the potential solver (WADAM) are not accurate enough. The used solver does not contemplate modeling thin plates with doublets. The relatively low accuracy of the results highlights the importance of these elements when performing potential flow simulations of offshore platforms which include thin plates. 9. For the full CFD solver (Ansys CFX), the accuracy of the computations is found reasonable for the plain plate. Such accuracy diminishes for the disc equipped with a vertical flap, an expected result considering the greater complexity of the flow. 10. In regards to second order effects, in general, the results showed that, although the main trend in the behavior of the second-order forces is well captured by the numerical predictions, some under prediction of the experimental values is visible. The gap between experimental and numerical results is more pronounced when Newman’s approximation is considered, making use exclusively of the mean drift forces calculated in the first-order solution. 11. It should be observed that the trends observed in the fixed model test may change when the body is free to float, and the impact that eventual errors in the estimation of the second-order forces may have on the mooring system depends on the characteristics of the sea conditions that will ultimately impose the maximum loads on the mooring lines. Nevertheless, the preliminary results obtained in this research do confirm that a more detailed investigation of the methods adopted for the estimation of the nonlinear wave forces on the FOWT would be welcome and may provide some further guidance for the design of such systems. As a final remark, the candidate hopes this research can benefit the offshore wind industry in improving the hydrodynamic design of the semi-submersible concept.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se desarrolla una investigación sobre las técnicas de medida de descargas parciales (DP) que se aplican en medidas on-line, en condiciones normales de operación de las instalaciones eléctricas de alta tensión (AT). También se realiza un estudio de técnicas avanzadas de procesado y análisis de las señales medidas, que permiten realizar diagnósticos precisos del estado de los aislamientos eléctricos de AT. Uno de los objetivos fundamentales de la tesis ha sido disponer de un procedimiento eficaz de medida y procesado de las señales de DP, para la realización de medidas on-line tanto de forma itinerante, como mediante monitorización temporal o permanente. La implementación del nuevo procedimiento de medida permite obtener resultados satisfactorios en la detección, identificación y localización de defectos de aislamiento. Se ha dedicado especial interés al desarrollo de un método de clasificación de señales, que permite separar pulsos de ruido y diferentes fuentes de DP, presentes de forma simultánea en las instalaciones de AT. El estudio de la clasificación de señales se ha completado con la aplicación de un método para la detección de manera asistida, de los diferentes grupos de pulsos de ruido y de DP. La aplicación de este método de detección de grupos de pulsos, facilita la labor de los técnicos especialistas a la hora de diagnosticar el estado de los elementos aislantes. Al efecto de verificar de forma práctica las aportaciones de la tesis, se han realizado medidas de DP tanto en laboratorio como en campo. Las medidas experimentales en laboratorio se han efectuado en el Laboratorio de Alta Tensión de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (LAT-UPM), de la Universidad Politécnica de Madrid. Por otro lado, las medidas experimentales en campo se han llevado a cabo en instalaciones de AT propiedad de compañías de transporte y distribución de energía eléctrica. La realización de ensayos de DP en estas instalaciones ha sido posible, gracias a los proyectos de investigación llevados a cabo por el grupo de trabajo del LAT-UPM, con diferentes empresas del sector durante los diez últimos años. ABSTRACT This thesis develops techniques for measuring partial discharges (PD) that are applied in on-line measurements, under normal operating conditions of the high voltage (HV) electrical installations. In addition there are studied advanced techniques for the processing and analysis of the measured signals, that permit precise diagnostics of the state of HV electrical insulation systems. One of the fundamental objectives of the thesis is to make available an effective procedure for measuring and processing PD signals, for making on-line measurements, either in an itinerant way or in temporary or permanent monitoring. The implementation of the new measurement procedure yields satisfactory results in the detection, identification and localization of insulation defects. Special attention has been devoted to the development of a method for classifying signals, that separates noise pulses and various PD sources present simultaneously in the HV installations. The study of the classification of signals has been completed by the application of a method for detecting, in a user assisted manner, the different groups of noise pulses and of PD. The application of this method for detecting groups of pulses facilitates the work of the specialist technicians to diagnose the condition of the insulation elements. To demonstrate the practical value of the thesis, PD measurements were made in laboratory as well as in field installations. The experimental measurements in laboratory were made in the High Voltage Laboratory (LAT-UPM) of the High Technical School of Engineering and Industrial Design, of the Polytechnic University of Madrid. Field measurements were realized in the HV installations of companies providing electrical energy transport and distribution. The realization of PD tests in these facilities was possible thanks to the research projects carried out by the working group of the LAT-UPM during the last ten years, with different companies operating in the sector.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El comportamiento dinámico de los puentes de ferrocarril, tanto convencional como de alta velocidad, constituye uno de los criterios de diseño más relevantes en la actualidad, puesto que bajo situaciones resonantes la amplificación dinámica que se produce puede llegar a ser muy elevada, no resultando válidas las metodologías utilizadas tradicionalmente. De igual forma, la amplificación dinámica suele llevar asociada la aparición de inestabilidades de la vía relacionadas con vibraciones excesivas de la capa de balasto, las cuales comprometen los estados límite de servicio de la estructura y por lo tanto no permiten garantizar el confort de los pasajeros. Para analizar el comportamiento dinámico de estructuras semi-enterradas en líneas de alta velocidad se decide llevar a cabo el presente Trabajo Fin de Máster en colaboración con la Subdirección de Ingeniería e Innovación de Adif. En este contexto, los objetivos principales de esta investigación comprenden la revisión del estado actual de conocimiento relativo a cálculo y evaluación dinámica, el análisis de tipologías de estructuras semi-enterradas de alguna de las líneas de alta velocidad gestionadas por Adif, así como la elaboración de distintos modelos numéricos de Elementos Finitos que permitan contrastar las medidas experimentales obtenidas en la campaña de instrumentación realizada. Por tanto, se realiza un estudio detallado del paso inferior seleccionado como representativo de la LAV Madrid - Barcelona - Frontera Francesa por medio de modelos numéricos en 2 y 3 dimensiones, desarrollados en FEAP v8.1 (2007). Estos modelos son calibrados en base a las aceleraciones máximas registradas en la campaña instrumental, así como al estudio del contenido frecuencial de cada uno de los sensores dispuestos. La resolución de los modelos se lleva a cabo por medio de una descomposición modal. Por último, en lo que se refiere a resultados obtenidos, destacar que los modelos desarrollados tras la calibración reproducen de forma fiel el comportamiento dinámico del paso inferior seleccionado bajo el eje activo de circulación. Así, se puede concluir que este tipo de estructuras semi-enterradas no se ven comprometidas ante la acción dinámica de las composiciones ferroviarias consideradas, tanto para las velocidades actuales de circulación como para previsibles incrementos de estas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo se presenta un estudio experimental y numérico de impactos balísticos sobre placas de acero inoxidable martensítico a altas temperaturas (400ºC y 700ºC), que pone de manifiesto la importancia del ablandamiento térmico en simulaciones de impactos a altas temperaturas. Mediante un estudio metalográfico de la zona de impacto, se ha observado la aparición de bandas adiabáticas de cortante formadas por el aumento brusco de la temperatura debido a la acumulación del trabajo plástico en el interior del material. La correcta predicción en la formación de estas bandas durante el proceso de penetración es crítica a la hora de obtener resultados representativos de los experimentos realizados. Basándose en datos experimentales de ensayos previamente realizados, se ha calibrado un modelo de material de Johnson-Cook (JC) para su uso con simulaciones numéricas en el código no lineal de elementos finitos LSDYNA. Mediante estas simulaciones numéricas se demuestra la importancia del ablandamiento térmico en el proceso de perforación de placas, al igual que la incapacidad que un modelo tipo JC tiene para representar el dicho ablandamiento para material estudiado. Esta investigación presenta, finalmente, una modificación a un modelo tipo JC programado como subrutina de material de usuario para LS-DYNA que permite simular correctamente estos procesos de impacto a alta temperatura