15 resultados para Validação - Métodos analíticos

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento es la segunda parte de los apuntes del curso de doctorado "Métodos analíticos y análisis de señal" del Máster Universitario en Tecnologías y Sistemas de Comunicaciones de la ETSIT-UPM. El objetivo del curso es reforzar los recursos matemáticos de los ingenieros de telecomunicación para facilitar la realización de la tesis doctoral. En esta segunda parte se abordan algunos problemas que se formulan en espacios vectoriales de dimensión infinita. Por ello se comienza llamando la atención sobre las diferencias entre estos espacios y los de dimensión finita y proporcionando una introducción a los espacios de Hilbert separables, que son los espacios de dimensión infinita con propiedades más similares a las de los espacios de dimensión finita. Después se aborde el análisis de señales mediante ondículas, principalmente a través del concepto de análisis multirresolución, pero con referencia también a la transformada ondicular continua. Finalmente se proporciona una introducción al método de elementos finitos para la resolución numérica de ecuaciones en derivadas parciales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Se describen someramente las más importantes técnicas de cálculo de estructuras láminas plegadas, y se realiza una comparación entre los métodos analíticos, en particular los procedimientos armónicos y los numéricos. Entre estos últimos, que hacen posible el tratamiento de situaciones reales que se encuentran en la práctica profesional, se expone uno original que permite englobar dentro de un mismo análisis matricial y, por tanto, dentro de un mismo programa de computador, estructuras muy diversas: no prismáticas, con sección transversal múltiple, con apoyos intermedios y con diversos tipos de continuidad transversal. En los ejemplos estudiados se comprueba la bondad de los resultados obtenidos y la excelente eficiencia computacional, en comparación con otros métodos numéricos más universales, que se muestran inadecuados para estos tipos particulares de estructuras.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Estas notas, que se publican en dos volúmenes, surgen como resultado de las clases de doctorado que, durante el curso académico 1979-80, impartió Avelino Samartín en la Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos de la Universidad de Santander. El objetivo del curso era ambicioso ya que se intentaban presentar, de un modo panorámico, los distintos procedimientos analíticos y semianalíticos de Cálculo de Estructuras así como su aplicación al análisis efectivo de diferentes casos prácticos: vigas, placas y láminas. La publicación que se presenta es el volumen uno, que corresponde a la primera parte del curso, referente a los métodos generales de cálculo y su aplicación a casos sencillos : estructuras 1-D y 2-D. También se incluye, en el capítulo 5, una combinación natural de elementos 2-D - laja y placa-, correspondiente a la lámina plegada. Se deja para un segundo volumen el estudio de otras estructuras laminares específicas, así como la introducción a la teoría general de láminas. A lo largo del curso -y en estas notas se refleja- se ha intentado mostrar la identidad de la metodología existente en todo el cálculo estructural , desde la estructura más simple -columna- a la más compleja -lámina-, tanto en su planteamiento como en su resolución. Con esta publicación se desea -aparte de cubrir un evidente vacío bibliográfico, en nuestra lengua, sobre el tema- impulsar el uso de los diferentes métodos analíticos que actualmente existen y que, por causas bien conocidas - facilidad de computación - han sido, en opinión de los autores, inmerecidamente relegados al olvido, cuando podrían, muchas veces, sustituir , o al menos complementar, otras técnicas numéricas más potentes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este documento es la primera parte de los apuntes del curso de doctorado "Métodos analíticos y análisis de señal" del Máster Universitario en Tecnologías y Sistemas de Comunicaciones de la ETSIT-UPM. El objetivo del curso es reforzar los recursos matemáticos de los ingenieros de telecomunicación para facilitar la realización de la tesis doctoral. En esta primera parte se intenta facilitar el uso del álgebra lineal como herramienta en esta rama de la ingeniería. Esta parte del curso se divide en tres partes: - En los primeros temas, básicamente de repaso y nivelación, se aprovecha para establecer conexiones entre conceptos de álgebra lineal y de teoría de la señal. - A continuación se estudian el análisis de componentes principales, la descomposición en valores singulares y varias versiones del problema de mínimos cuadrados, temas que probablemente constituyen las herramientas fundamentales para abordar problemas de análisis de señales en términos de subespacios y distancias euclídeas. Los fundamentos proporcionados permiten abordar de forma sencilla otros problemas como el análisis discriminante lineal y el escalado multidimensional. - En los últimos temas se estudian las cuestiones fundamentales relativas a la implementación de algoritmos matriciales, como son ciertas factorizaciones matriciales y los conceptos de condicionamiento y estabilidad.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los ensayos de bombeo son, sin lugar a dudas, una de las pruebas más fiables y de mayor interés que se hacen en el medio físico. No son pruebas estrictamente puntuales, dado que el bombeo atrae flujo desde distancias lejanas al pozo, la prueba tiene una excelente representatividad espacial. Los métodos de interpretación mediante ensayos de bombeo se empezaron a plantear en la primera mitad del pasado siglo. Con los ensayos de bombeo se puede calcular la transmisividad y coeficiente de almacenamiento de las formaciones acuíferas y suministran información sobre el tipo de acuífero, la calidad constructiva del pozo de extracción, la existencia de barreras impermeable o bordes de recarga próximos, e incluso en algunas circunstancias permiten el cálculo del área de embalse subterráneo. Desde mediados del siglo 20 existe una eficaz y abundante gama de métodos analítico-interpretativos de ensayos de bombeo, tanto en régimen permanente como transitorio. Estos métodos son ampliamente conocidos y están muy experimentados a lo largo de muchos países, sin embargo, hoy día, podrían utilizarse modelos de flujo para la interpretación, logrando la misma fiabilidad e incluso mejores posibilidades de análisis. Muchos ensayos que no pueden interpretarse porque las configuraciones del medio son demasiado complejas y no están disponibles, o no es posible, el desarrollo de métodos analíticos, tienen buena adaptación y en ocasiones muy fácil solución haciendo uso de los métodos numéricos de simulación del flujo. En esta tesis se ha buscado una vía de interpretar ensayos de bombeo haciendo uso de modelos de simulación del flujo. Se utiliza el modelo universal MODFLOW del United States Geological Survey, en el cual se configura una celda de simulación y mallado particularmente adecuados para el problema a tratar, se valida con los métodos analíticos existentes. Con la célula convenientemente validada se simulan otros casos en los que no existen métodos analíticos desarrollados dada la complejidad del medio físico a tratar y se sacan las oportunas conclusiones. Por último se desarrolla un modelo específico y la correspondiente aplicación de uso general para la interpretación numérica de ensayos de bombeo tanto con las configuraciones normales como con configuraciones complejas del medio físico. ABSTRACT Pumping tests are, without doubt, one of the most reliable and most interesting tests done in the physical environment. They are not strictly anecdotal evidence, since pumping flow attracts from far distances to the well, the test has excellent spatial representation. Methods of interpretation by pumping tests began to arise in the first half of last century. With pumping tests, can be calculated transmissivity and storage coefficient of the aquifer formations, and provide information on the type of aquifer, the construction quality of the well, the existence of waterproof barriers or borders next recharge, and even in some circumstances allow calculating the area of underground reservoir. Since the mid-20th century there is effective and abundant range of analytical interpretative pumping tests, both in steady state and transient methods. These methods are very widely known and experienced over many countries, however, nowadays, may flow models used for interpretation, obtaining equally reliable or even better possibilities for analysis. Many trials cannot be interpreted as environmental settings are too complex and are not available, or not possible, the development of analytical methods, have good adaptation and sometimes very easily solved using numerical flow simulation methods. This thesis has sought a way to interpret pumping tests using flow simulation models. MODFLOW universal model of United States Geological Survey, in which a simulation cell and meshing particularly suitable for the problem to be treated, is validated with existing analytical methods used is set. With suitably validated cell other cases where there are no analytical methods developed given the complexity of the physical environment to try and draw appropriate conclusions are simulated. Finally, a specific model and the corresponding application commonly used for numerical interpretation of pumping tests both with normal settings as complex configurations of the physical environment is developed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resumen El diseño clásico de circuitos de microondas se basa fundamentalmente en el uso de los parámetros s, debido a su capacidad para caracterizar de forma exitosa el comportamiento de cualquier circuito lineal. La relación existente entre los parámetros s con los sistemas de medida actuales y con las herramientas de simulación lineal han facilitado su éxito y su uso extensivo tanto en el diseño como en la caracterización de circuitos y subsistemas de microondas. Sin embargo, a pesar de la gran aceptación de los parámetros s en la comunidad de microondas, el principal inconveniente de esta formulación reside en su limitación para predecir el comportamiento de sistemas no lineales reales. En la actualidad, uno de los principales retos de los diseñadores de microondas es el desarrollo de un contexto análogo que permita integrar tanto el modelado no lineal, como los sistemas de medidas de gran señal y los entornos de simulación no lineal, con el objetivo de extender las capacidades de los parámetros s a regímenes de operación en gran señal y por tanto, obtener una infraestructura que permita tanto la caracterización como el diseño de circuitos no lineales de forma fiable y eficiente. De acuerdo a esta filosofía, en los últimos años se han desarrollado diferentes propuestas como los parámetros X, de Agilent Technologies, o el modelo de Cardiff que tratan de proporcionar esta plataforma común en el ámbito de gran señal. Dentro de este contexto, uno de los objetivos de la presente Tesis es el análisis de la viabilidad del uso de los parámetros X en el diseño y simulación de osciladores para transceptores de microondas. Otro aspecto relevante en el análisis y diseño de circuitos lineales de microondas es la disposición de métodos analíticos sencillos, basados en los parámetros s del transistor, que permitan la obtención directa y rápida de las impedancias de carga y fuente necesarias para cumplir las especificaciones de diseño requeridas en cuanto a ganancia, potencia de salida, eficiencia o adaptación de entrada y salida, así como la determinación analítica de parámetros de diseño clave como el factor de estabilidad o los contornos de ganancia de potencia. Por lo tanto, el desarrollo de una formulación de diseño analítico, basada en los parámetros X y similar a la existente en pequeña señal, permitiría su uso en aplicaciones no lineales y supone un nuevo reto que se va a afrontar en este trabajo. Por tanto, el principal objetivo de la presente Tesis consistiría en la elaboración de una metodología analítica basada en el uso de los parámetros X para el diseño de circuitos no lineales que jugaría un papel similar al que juegan los parámetros s en el diseño de circuitos lineales de microondas. Dichos métodos de diseño analíticos permitirían una mejora significativa en los actuales procedimientos de diseño disponibles en gran señal, así como una reducción considerable en el tiempo de diseño, lo que permitiría la obtención de técnicas mucho más eficientes. Abstract In linear world, classical microwave circuit design relies on the s-parameters due to its capability to successfully characterize the behavior of any linear circuit. Thus the direct use of s-parameters in measurement systems and in linear simulation analysis tools, has facilitated its extensive use and success in the design and characterization of microwave circuits and subsystems. Nevertheless, despite the great success of s-parameters in the microwave community, the main drawback of this formulation is its limitation in the behavior prediction of real non-linear systems. Nowadays, the challenge of microwave designers is the development of an analogue framework that allows to integrate non-linear modeling, large-signal measurement hardware and non-linear simulation environment in order to extend s-parameters capabilities to non-linear regimen and thus, provide the infrastructure for non-linear design and test in a reliable and efficient way. Recently, different attempts with the aim to provide this common platform have been introduced, as the Cardiff approach and the Agilent X-parameters. Hence, this Thesis aims to demonstrate the X-parameter capability to provide this non-linear design and test framework in CAD-based oscillator context. Furthermore, the classical analysis and design of linear microwave transistorbased circuits is based on the development of simple analytical approaches, involving the transistor s-parameters, that are able to quickly provide an analytical solution for the input/output transistor loading conditions as well as analytically determine fundamental parameters as the stability factor, the power gain contours or the input/ output match. Hence, the development of similar analytical design tools that are able to extend s-parameters capabilities in small-signal design to non-linear ap- v plications means a new challenge that is going to be faced in the present work. Therefore, the development of an analytical design framework, based on loadindependent X-parameters, constitutes the core of this Thesis. These analytical nonlinear design approaches would enable to significantly improve current large-signal design processes as well as dramatically decrease the required design time and thus, obtain more efficient approaches.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La deposición de determinadas fracciones de finos en el entorno de los pozos de inyección y las balsas de infiltración, ambas instalaciones de recarga artificial de acuíferos, conlleva la variación de propiedades hidrogeológicas del medio tales como la permeabilidad. La hidráulica de pozos y la hidrodinámica de balsas tradicionales no contemplan la condición de permeabilidad variable, por lo que se han investigado las funciones de colmatación y permeabilidad como funciones matemáticas susceptibles de reproducir este nuevo comportamiento. A partir de estas funciones, la utilización de métodos analíticos y numéricos ha permitido desarrollar las correspondientes ecuaciones de flujo aplicables a medios detríticos colmatados; el objetivo de esta nueva formulación es la cuantificación de los efectos que los procesos de colmatación tienen sobre las formaciones permeables. Se comprueba que el caudal unitario infiltrado en las balsas de recarga depende de la permeabilidad del medio; asimismo, en dichas instalaciones, la masa de finos colmatada depende de su concentración en la superficie de infiltración y de las velocidades de decantación e infiltración a través de la balsa. Por su parte y en presencia de colmatación, los acuíferos sometidos a caudales constantes de inyección por pozos experimentan ascensos de nivel piezométrico superiores a los teóricamente predecibles; por el contrario, la evolución de los caudales de inyección a nivel constante en los pozos de recarga responde a un comportamiento decreciente, también superior a lo inicialmente previsto por el modelo teórico. Estas variaciones de caudal y nivel piezométrico dependen de parámetros como la concentración y tamaño de los sólidos en suspensión en el agua de recarga, el tamaño de las partículas constituyentes del medio detrítico, la distancia al eje del pozo, etc.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El hormigón es uno de los materiales de construcción más empleados en la actualidad debido a sus buenas prestaciones mecánicas, moldeabilidad y economía de obtención, entre otras ventajas. Es bien sabido que tiene una buena resistencia a compresión y una baja resistencia a tracción, por lo que se arma con barras de acero para formar el hormigón armado, material que se ha convertido por méritos propios en la solución constructiva más importante de nuestra época. A pesar de ser un material profusamente utilizado, hay aspectos del comportamiento del hormigón que todavía no son completamente conocidos, como es el caso de su respuesta ante los efectos de una explosión. Este es un campo de especial relevancia, debido a que los eventos, tanto intencionados como accidentales, en los que una estructura se ve sometida a una explosión son, por desgracia, relativamente frecuentes. La solicitación de una estructura ante una explosión se produce por el impacto sobre la misma de la onda de presión generada en la detonación. La aplicación de esta carga sobre la estructura es muy rápida y de muy corta duración. Este tipo de acciones se denominan cargas impulsivas, y pueden ser hasta cuatro órdenes de magnitud más rápidas que las cargas dinámicas impuestas por un terremoto. En consecuencia, no es de extrañar que sus efectos sobre las estructuras y sus materiales sean muy distintos que las que producen las cargas habitualmente consideradas en ingeniería. En la presente tesis doctoral se profundiza en el conocimiento del comportamiento material del hormigón sometido a explosiones. Para ello, es crucial contar con resultados experimentales de estructuras de hormigón sometidas a explosiones. Este tipo de resultados es difícil de encontrar en la literatura científica, ya que estos ensayos han sido tradicionalmente llevados a cabo en el ámbito militar y los resultados obtenidos no son de dominio público. Por otra parte, en las campañas experimentales con explosiones llevadas a cabo por instituciones civiles el elevado coste de acceso a explosivos y a campos de prueba adecuados no permite la realización de ensayos con un elevado número de muestras. Por este motivo, la dispersión experimental no es habitualmente controlada. Sin embargo, en elementos de hormigón armado sometidos a explosiones, la dispersión experimental es muy acusada, en primer lugar, por la propia heterogeneidad del hormigón, y en segundo, por la dificultad inherente a la realización de ensayos con explosiones, por motivos tales como dificultades en las condiciones de contorno, variabilidad del explosivo, o incluso cambios en las condiciones atmosféricas. Para paliar estos inconvenientes, en esta tesis doctoral se ha diseñado un novedoso dispositivo que permite ensayar hasta cuatro losas de hormigón bajo la misma detonación, lo que además de proporcionar un número de muestras estadísticamente representativo, supone un importante ahorro de costes. Con este dispositivo se han ensayado 28 losas de hormigón, tanto armadas como en masa, de dos dosificaciones distintas. Pero además de contar con datos experimentales, también es importante disponer de herramientas de cálculo para el análisis y diseño de estructuras sometidas a explosiones. Aunque existen diversos métodos analíticos, hoy por hoy las técnicas de simulación numérica suponen la alternativa más avanzada y versátil para el cálculo de elementos estructurales sometidos a cargas impulsivas. Sin embargo, para obtener resultados fiables es crucial contar con modelos constitutivos de material que tengan en cuenta los parámetros que gobiernan el comportamiento para el caso de carga en estudio. En este sentido, cabe destacar que la mayoría de los modelos constitutivos desarrollados para el hormigón a altas velocidades de deformación proceden del ámbito balístico, donde dominan las grandes tensiones de compresión en el entorno local de la zona afectada por el impacto. En el caso de los elementos de hormigón sometidos a explosiones, las tensiones de compresión son mucho más moderadas, siendo las tensiones de tracción generalmente las causantes de la rotura del material. En esta tesis doctoral se analiza la validez de algunos de los modelos disponibles, confirmando que los parámetros que gobiernan el fallo de las losas de hormigón armado ante explosiones son la resistencia a tracción y su ablandamiento tras rotura. En base a los resultados anteriores se ha desarrollado un modelo constitutivo para el hormigón ante altas velocidades de deformación, que sólo tiene en cuenta la rotura por tracción. Este modelo parte del de fisura cohesiva embebida con discontinuidad fuerte, desarrollado por Planas y Sancho, que ha demostrado su capacidad en la predicción de la rotura a tracción de elementos de hormigón en masa. El modelo ha sido modificado para su implementación en el programa comercial de integración explícita LS-DYNA, utilizando elementos finitos hexaédricos e incorporando la dependencia de la velocidad de deformación para permitir su utilización en el ámbito dinámico. El modelo es estrictamente local y no requiere de remallado ni conocer previamente la trayectoria de la fisura. Este modelo constitutivo ha sido utilizado para simular dos campañas experimentales, probando la hipótesis de que el fallo de elementos de hormigón ante explosiones está gobernado por el comportamiento a tracción, siendo de especial relevancia el ablandamiento del hormigón. Concrete is nowadays one of the most widely used building materials because of its good mechanical properties, moldability and production economy, among other advantages. As it is known, it has high compressive and low tensile strengths and for this reason it is reinforced with steel bars to form reinforced concrete, a material that has become the most important constructive solution of our time. Despite being such a widely used material, there are some aspects of concrete performance that are not yet fully understood, as it is the case of its response to the effects of an explosion. This is a topic of particular relevance because the events, both intentional and accidental, in which a structure is subjected to an explosion are, unfortunately, relatively common. The loading of a structure due to an explosive event occurs due to the impact of the pressure shock wave generated in the detonation. The application of this load on the structure is very fast and of very short duration. Such actions are called impulsive loads, and can be up to four orders of magnitude faster than the dynamic loads imposed by an earthquake. Consequently, it is not surprising that their effects on structures and materials are very different than those that cause the loads usually considered in engineering. This thesis broadens the knowledge about the material behavior of concrete subjected to explosions. To that end, it is crucial to have experimental results of concrete structures subjected to explosions. These types of results are difficult to find in the scientific literature, as these tests have traditionally been carried out by armies of different countries and the results obtained are classified. Moreover, in experimental campaigns with explosives conducted by civil institutions the high cost of accessing explosives and the lack of proper test fields does not allow for the testing of a large number of samples. For this reason, the experimental scatter is usually not controlled. However, in reinforced concrete elements subjected to explosions the experimental dispersion is very pronounced. First, due to the heterogeneity of concrete, and secondly, because of the difficulty inherent to testing with explosions, for reasons such as difficulties in the boundary conditions, variability of the explosive, or even atmospheric changes. To overcome these drawbacks, in this thesis we have designed a novel device that allows for testing up to four concrete slabs under the same detonation, which apart from providing a statistically representative number of samples, represents a significant saving in costs. A number of 28 slabs were tested using this device. The slabs were both reinforced and plain concrete, and two different concrete mixes were used. Besides having experimental data, it is also important to have computational tools for the analysis and design of structures subjected to explosions. Despite the existence of several analytical methods, numerical simulation techniques nowadays represent the most advanced and versatile alternative for the assessment of structural elements subjected to impulsive loading. However, to obtain reliable results it is crucial to have material constitutive models that take into account the parameters that govern the behavior for the load case under study. In this regard it is noteworthy that most of the developed constitutive models for concrete at high strain rates arise from the ballistic field, dominated by large compressive stresses in the local environment of the area affected by the impact. In the case of concrete elements subjected to an explosion, the compressive stresses are much more moderate, while tensile stresses usually cause material failure. This thesis discusses the validity of some of the available models, confirming that the parameters governing the failure of reinforced concrete slabs subjected to blast are the tensile strength and softening behaviour after failure. Based on these results we have developed a constitutive model for concrete at high strain rates, which only takes into account the ultimate tensile strength. This model is based on the embedded Cohesive Crack Model with Strong Discontinuity Approach developed by Planas and Sancho, which has proved its ability in predicting the tensile fracture of plain concrete elements. The model has been modified for its implementation in the commercial explicit integration program LS-DYNA, using hexahedral finite elements and incorporating the dependence of the strain rate, to allow for its use in dynamic domain. The model is strictly local and does not require remeshing nor prior knowledge of the crack path. This constitutive model has been used to simulate two experimental campaigns, confirming the hypothesis that the failure of concrete elements subjected to explosions is governed by their tensile response, being of particular relevance the softening behavior of concrete.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo principal de esta tesis es el desarrollo de herramientas numéricas basadas en técnicas de onda completa para el diseño asistido por ordenador (Computer-Aided Design,‘CAD’) de dispositivos de microondas. En este contexto, se desarrolla una herramienta numérica basada en el método de los elementos finitos para el diseño y análisis de antenas impresas mediante algoritmos de optimización. Esta técnica consiste en dividir el análisis de una antena en dos partes. Una parte de análisis 3D que se realiza sólo una vez en cada punto de frecuencia de la banda de funcionamiento donde se sustituye una superficie que contiene la metalización del parche por puertas artificiales. En una segunda parte se inserta entre las puertas artificiales en la estructura 3D la superficie soportando una metalización y se procede un análisis 2D para caracterizar el comportamiento de la antena. La técnica propuesta en esta tesis se puede implementar en un algoritmo de optimización para definir el perfil de la antena que permite conseguir los objetivos del diseño. Se valida experimentalmente dicha técnica empleándola en el diseño de antenas impresas de banda ancha para diferentes aplicaciones mediante la optimización del perfil de los parches. También, se desarrolla en esta tesis un procedimiento basado en el método de descomposición de dominio y el método de los elementos finitos para el diseño de dispositivos pasivos de microonda. Se utiliza este procedimiento en particular para el diseño y sintonía de filtros de microondas. En la primera etapa de su aplicación se divide la estructura que se quiere analizar en subdominios aplicando el método de descomposición de dominio, este proceso permite analizar cada segmento por separado utilizando el método de análisis adecuado dado que suele haber subdominios que se pueden analizar mediante métodos analíticos por lo que el tiempo de análisis es más reducido. Se utilizan métodos numéricos para analizar los subdominios que no se pueden analizar mediante métodos analíticos. En esta tesis, se utiliza el método de los elementos finitos para llevar a cabo el análisis. Además de la descomposición de dominio, se aplica un proceso de barrido en frecuencia para reducir los tiempos del análisis. Como método de orden reducido se utiliza la técnica de bases reducidas. Se ha utilizado este procedimiento para diseñar y sintonizar varios ejemplos de filtros con el fin de comprobar la validez de dicho procedimiento. Los resultados obtenidos demuestran la utilidad de este procedimiento y confirman su rigurosidad, precisión y eficiencia en el diseño de filtros de microondas. ABSTRACT The main objective of this thesis is the development of numerical tools based on full-wave techniques for computer-aided design ‘CAD’ of microwave devices. In this context, a numerical technique based on the finite element method ‘FEM’ for the design and analysis of printed antennas using optimization algorithms has been developed. The proposed technique consists in dividing the analysis of the antenna in two stages. In the first stage, the regions of the antenna which do not need to be modified during the CAD process are initially characterized only once from their corresponding matrix transfer function (Generalized Admittance matrix, ‘GAM’). The regions which will be modified are defined as artificial ports, precisely the regions which will contain the conducting surfaces of the printed antenna. In a second stage, the contour shape of the conducting surfaces of the printed antenna is iteratively modified in order to achieve a desired electromagnetic performance of the antenna. In this way, a new GAM of the radiating device which takes into account each printed antenna shape is computed after each iteration. The proposed technique can be implemented with a genetic algorithm to achieve the design objectives. This technique is validated experimentally and applied to the design of wideband printed antennas for different applications by optimizing the shape of the radiating device. In addition, a procedure based on the domain decomposition method and the finite element method has been developed for the design of microwave passive devices. In particular, this procedure can be applied to the design and tune of microwave filters. In the first stage of its implementation, the structure to be analyzed is divided into subdomains using the domain decomposition method; this process allows each subdomains can be analyzed separately using suitable analysis method, since there is usually subdomains that can be analyzed by analytical methods so that the time of analysis is reduced. For analyzing the subdomains that cannot be analyzed by analytical methods, we use the numerical methods. In this thesis, the FEM is used to carry out the analysis. Furthermore the decomposition of the domain, a frequency sweep process is applied to reduce analysis times. The reduced order model as the reduced basis technique is used in this procedure. This procedure is applied to the design and tune of several examples of microwave filters in order to check its validity. The obtained results allow concluding the usefulness of this procedure and confirming their thoroughness, accuracy and efficiency for the design of microwave filters.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La agricultura es uno de los sectores más afectados por el cambio climático. A pesar de haber demostrado a lo largo de la historia una gran capacidad para adaptarse a nuevas situaciones, hoy en día la agricultura se enfrenta a nuevos retos tales como satisfacer un elevado crecimiento en la demanda de alimentos, desarrollar una agricultura sostenible con el medio ambiente y reducir las emisiones de gases de efecto invernadero. El potencial de adaptación debe ser definido en un contexto que incluya el comportamiento humano, ya que éste juega un papel decisivo en la implementación final de las medidas. Por este motivo, y para desarrollar correctamente políticas que busquen influir en el comportamiento de los agricultores para fomentar la adaptación a estas nuevas condiciones, es necesario entender previamente los procesos de toma de decisiones a nivel individual o de explotación, así como los efectos de los factores que determinan las barreras o motivaciones de la implementación de medidas. Esta Tesis doctoral trata de profundizar en el análisis de factores que influyen en la toma de decisiones de los agricultores para adoptar estrategias de adaptación al cambio climático. Este trabajo revisa la literatura actual y desarrolla un marco metodológico a nivel local y regional. Dos casos de estudio a nivel local (Doñana, España y Makueni, Kenia) han sido llevados a cabo con el fin de explorar el comportamiento de los agricultores hacia la adaptación. Estos casos de estudio representan regiones con notables diferencias en climatología, impactos del cambio climático, barreras para la adaptación y niveles de desarrollo e influencia de las instituciones públicas y privadas en la agricultura. Mientras el caso de estudio de Doñana representa un ejemplo de problemas asociados al uso y escasez del agua donde se espera que se agraven en el futuro, el caso de estudio de Makueni ejemplifica una zona fuertemente amenazada por las predicciones de cambio climático, donde adicionalmente la falta de infraestructura y la tecnología juegan un papel crucial para la implementación de la adaptación. El caso de estudio a nivel regional trata de generalizar en África el comportamiento de los agricultores sobre la implementación de medidas. El marco metodológico que se ha seguido en este trabajo abarca una amplia gama de enfoques y métodos para la recolección y análisis de datos. Los métodos utilizados para la toma de datos incluyen la implementación de encuestas, entrevistas, talleres con grupos de interés, grupos focales de discusión, revisión de estudios previos y bases de datos públicas. Los métodos analíticos incluyen métodos estadísticos, análisis multi‐criterio para la toma de decisiones, modelos de optimización de uso del suelo y un índice compuesto calculado a través de indicadores. Los métodos estadísticos se han utilizado con el fin de evaluar la influencia de los factores socio‐económicos y psicológicos sobre la adopción de medidas de adaptación. Dentro de estos métodos se incluyen regresiones logísticas, análisis de componentes principales y modelos de ecuaciones estructurales. Mientras que el análisis multi‐criterio se ha utilizado con el fin de evaluar las opciones de adaptación de acuerdo a las opiniones de las diferentes partes interesadas, el modelo de optimización ha tenido como fin analizar la combinación óptima de medidas de adaptación. El índice compuesto se ha utilizado para evaluar a nivel regional la implementación de medidas de adaptación en África. En general, los resultados del estudio ponen de relieve la gran importancia de considerar diferentes escalas espaciales a la hora de evaluar la implementación de medidas de adaptación al cambio climático. El comportamiento de los agricultores es diferente entre lugares considerados a una escala local relativamente pequeña, por lo que la generalización de los patrones del comportamiento a escalas regionales o globales resulta relativamente compleja. Los resultados obtenidos han permitido identificar factores determinantes tanto socioeconómicos como psicológicos y calcular su efecto sobre la adopción de medidas de adaptación. Además han proporcionado una mejor comprensión del distinto papel que desempeñan los cinco tipos de capital (natural, físico, financiero, social y humano) en la implementación de estrategias de adaptación. Con este trabajo se proporciona información de gran interés en los procesos de desarrollo de políticas destinadas a mejorar el apoyo de la sociedad a tomar medidas contra el cambio climático. Por último, en el análisis a nivel regional se desarrolla un índice compuesto que muestra la probabilidad de adoptar medidas de adaptación en las regiones de África y se analizan las causas que determinan dicha probabilidad de adopción de medidas. ABSTRACT Agriculture is and will continue to be one of the sectors most affected by climate change. Despite having demonstrated throughout history a great ability to adapt, agriculture today faces new challenges such as meeting growing food demands, developing sustainable agriculture and reducing greenhouse gas emissions. Adaptation policies planned on global, regional or local scales are ultimately implemented in decision‐making processes at the farm or individual level so adaptation potentials have to be set within the context of individual behaviour and regional institutions. Policy instruments can play a formative role in the adoption of such policies by addressing incentives/disincentives that influence farmer’s behaviour. Hence understanding farm‐level decision‐making processes and the influence of determinants of adoption is crucial when designing policies aimed at fostering adoption. This thesis seeks to analyse the factors that influence decision‐making by farmers in relation to the uptake of adaptation options. This work reviews the current knowledge and develops a methodological framework at local and regional level. Whilst the case studies at the local level are conducted with the purpose of exploring farmer’s behaviour towards adaptation the case study at the regional level attempts to up‐scale and generalise theory on adoption of farmlevel adaptation options. The two case studies at the local level (Doñana, Spain and Makueni, Kenya) encompass areas with different; climates, impacts of climate change, adaptation constraints and limits, levels of development, institutional support for agriculture and influence from public and private institutions. Whilst the Doñana Case Study represents an area plagued with water‐usage issues, set to be aggravated further by climate change, Makueni Case study exemplifies an area decidedly threatened by climate change where a lack of infrastructure and technology plays a crucial role in the uptake of adaptation options. The proposed framework is based on a wide range of approaches for collecting and analysing data. The approaches used for data collection include the implementation of surveys, interviews, stakeholder workshops, focus group discussions, a review of previous case studies, and public databases. The analytical methods include statistical approaches, multi criteria analysis for decision‐making, land use optimisation models, and a composite index based on public databases. Statistical approaches are used to assess the influence of socio‐economic and psychological factors on the adoption or support for adaptation measures. The statistical approaches used are logistic regressions, principal component analysis and structural equation modelling. Whilst a multi criteria analysis approach is used to evaluate adaptation options according to the different perspectives of stakeholders, the optimisation model analyses the optimal combination of adaptation options. The composite index is developed to assess adoption of adaptation measures in Africa. Overall, the results of the study highlight the importance of considering various scales when assessing adoption of adaptation measures to climate change. As farmer’s behaviour varies at a local scale there is elevated complexity when generalising behavioural patterns for farmers at regional or global scales. The results identify and estimate the effect of most relevant socioeconomic and psychological factors that influence adoption of adaptation measures to climate change. They also provide a better understanding of the role of the five types of capital (natural, physical, financial, social, and human) on the uptake of farm‐level adaptation options. These assessments of determinants help to explain adoption of climate change measures and provide helpful information in order to design polices aimed at enhancing societal support for adaptation policies. Finally the analysis at the regional level develops a composite index which suggests the likelihood of the regions in Africa to adopt farm‐level adaptation measures and analyses the main causes of this likelihood of adoption.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta tesis se recoge el trabajo experimental realizado para la caracterización de las propiedades ópticas en diodos láser construidos con estructuras basadas en pozos cuánticos (QW) y puntos cuánticos (QD). Las propiedades que se han estudiado en estos dispositivos son los espectros de ganancia, ganancia diferencial, índice diferencial y factor de ensanchamiento de línea (LEF). La comprensión de estas propiedades es de especial importancia para el diseño de nuevos diodos láser destinados a ser utilizados en aplicaciones exigentes como son las comunicaciones ópticas o aplicaciones médicas. El estudio se ha llevado a cabo en muestras de diodos láser suministrados por diferentes fabricantes: Ferdinand Braun Institut für Hóchstfrequenztechnik, Thales Research and Technology y la Universidad de Würzburg. Debido a esto las muestras de los láseres se han suministrado en diferentes configuraciones, utilizándose tanto dispositivos con cavidades de área ancha como de tipo caballete (“ridge”). En los trabajos se ha realizado el diseño y la construcción de los montajes experimentales y la implementación de los métodos analíticos necesarios para el estudio de las diferentes muestras. En los montajes experimentales se han implementado procesos para el filtrado espacial de los modos laterales de la cavidad presentes en los láseres de área ancha. Los métodos analíticos implementados se han utilizado para reducir los errores existentes en los sistemas de medida, mejorar su precisión y para separar la variación de índice en debida al calentamiento y la variación de corriente cuando los láseres operan en continua. El estudio sistemático de las propiedades de ópticas de los diodos láser basados en QW y QD ha permitido concluir que propiedades como el factor de ensanchamiento de línea no tienen por qué ser necesariamente inferiores en estos últimos, ya que dependen de las condiciones de inyección. En los láseres de QW se ha observado experimentalmente una reducción del factor de ensanchamiento de línea al alcanzarse la segunda transición, debido al aumento de la ganancia diferencial. ABSTRACT This thesis includes the experimental work for the characterization of optical properties of quantum well (QW) and quantum dot (QD) laser diodes. The properties that have been studied in these devices are the gain, differential gain, differential index and the linewith enhancement factor (LEF). The understating of these properties is of special importance for the design of new laser diodes to be used in exigent applications such as optical communications or medical applications. The study has been carried out using laser samples supplied by different manufacturers: Ferdinand Braun Institut fu¨r H¨ochstfrequenztechnik, Thales Research and Technology and the University of Wu¨rzburg. Because of this the laser samples were supplied in various configurations, using both broad area and ridge devices. In the work it has been done the design and construction of the experimental setups and implementation of analytical methods required for the study of the different devices. In the experimental set-ups it has been implemented a spatial filtering process to remove the lateral modes present in broad area lasers. The implemented analytical methods has been used to reduce the experimental errors in the measurement systems, improve the accuracy and separate the index variation caused by heating and current variation when the lasers operated on continuous wave. The systematic study of the optical properties of the QW and QD laser diodes has allowed concluding that properties such the linewith enhancement factor does not have to be necessary to be lower in the QD devices, since it is dependent on the injections conditions. In this work it has been experimentally observed a reduction of the linewith enhancement factor where the second transition has been reached mainly due to in the increased of the differential gain which is observed in this situation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Energía termosolar (de concentración) es uno de los nombres que hacen referencia en español al término inglés “concentrating solar power”. Se trata de una tecnología basada en la captura de la potencia térmica de la radiación solar, de forma que permita alcanzar temperaturas capaces de alimentar un ciclo termodinámico convencional (o avanzado); el futuro de esta tecnología depende principalmente de su capacidad para concentrar la radiación solar de manera eficiente y económica. La presente tesis está orientada hacia la resolución de ciertos problemas importantes relacionados con este objetivo. La mencionada necesidad de reducir costes en la concentración de radiación solar directa, asegurando el objetivo termodinámico de calentar un fluido hasta una determinada temperatura, es de vital importancia. Los colectores lineales Fresnel han sido identificados en la literatura científica como una tecnología con gran potencial para alcanzar esta reducción de costes. Dicha tecnología ha sido seleccionada por numerosas razones, entre las que destacan su gran libertad de diseño y su actual estado inmaduro. Con el objetivo de responder a este desafío se desarrollado un detallado estudio de las propiedades ópticas de los colectores lineales Fresnel, para lo cual se han utilizado métodos analíticos y numéricos de manera combinada. En primer lugar, se han usado unos modelos para la predicción de la localización y la irradiación normal directa del sol junto a unas relaciones analíticas desarrolladas para estudiar el efecto de múltiples variables de diseño en la energía incidente sobre los espejos. Del mismo modo, se han obtenido analíticamente los errores debidos al llamado “off-axis aberration”, a la apertura de los rayos reflejados en los espejos y a las sombras y bloqueos entre espejos. Esto ha permitido la comparación de diferentes formas de espejo –planos, circulares o parabólicos–, así como el diseño preliminar de la localización y anchura de los espejos y receptor sin necesidad de costosos métodos numéricos. En segundo lugar, se ha desarrollado un modelo de trazado de rayos de Monte Carlo con el objetivo de comprobar la validez del estudio analítico, pero sobre todo porque este no es preciso en el estudio de la reflexión en espejos. El código desarrollado está específicamente ideado para colectores lineales Fresnel, lo que ha permitido la reducción del tiempo de cálculo en varios órdenes de magnitud en comparación con un programa comercial más general. Esto justifica el desarrollo de un nuevo código en lugar de la compra de una licencia de otro programa. El modelo ha sido usado primeramente para comparar la intensidad de flujo térmico y rendimiento de colectores Fresnel, con y sin reflector secundario, con los colectores cilíndrico parabólicos. Finalmente, la conjunción de los resultados obtenidos en el estudio analítico con el programa numérico ha sido usada para optimizar el campo solar para diferentes orientaciones –Norte-Sur y Este-Oeste–, diferentes localizaciones –Almería y Aswan–, diferentes inclinaciones hacia el Trópico –desde 0 deg hasta 32 deg– y diferentes mínimos de intensidad del flujo en el centro del receptor –10 kW/m2 y 25 kW/m2–. La presente tesis ha conducido a importantes descubrimientos que deben ser considerados a la hora de diseñar un campo solar Fresnel. En primer lugar, los espejos utilizados no deben ser plano, sino cilíndricos o parabólicos, ya que los espejos curvos implican mayores concentraciones y rendimiento. Por otro lado, se ha llegado a la conclusión de que la orientación Este-Oeste es más propicia para localizaciones con altas latitudes, como Almería, mientras que en zonas más cercanas a los trópicos como Aswan los campos Norte-Sur conducen a mayores rendimientos. Es de destacar que la orientación Este-Oeste requiere aproximadamente la mitad de espejos que los campos Norte-Sur, puediendo estar inclinados hacia los Trópicos para mejorar el rendimiento, y que alcanzan parecidos valores de intensidad térmica en el receptor todos los días a mediodía. Sin embargo, los campos con orientación Norte-Sur permiten un flujo más constante a lo largo de un día. Por último, ha sido demostrado que el uso de diseños pre-optimizados analíticamente, con anchura de espejos y espaciado entre espejos variables a lo ancho del campo, pueden implicar aumentos de la energía generada por metro cuadrado de espejos de hasta el 6%. El rendimiento óptico anual de los colectores cilíndrico parabólicos es 23 % mayor que el rendimiento de los campos Fresnel en Almería, mientras que la diferencia es de solo 9 % en Aswan. Ello implica que, para alcanzar el mismo precio de electricidad que la tecnología de referencia, la reducción de costes de instalación por metro cuadrado de espejo debe estar entre el 10 % y el 25 %, y que los colectores lineales Fresnel tienen más posibilidades de ser desarrollados en zonas de bajas latitudes. Como consecuencia de los estudios desarrollados en esta tesis se ha patentado un sistema de almacenamiento que tiene en cuenta la variación del flujo térmico en el receptor a lo largo del día, especialmente para campos con orientación Este-Oeste. Este invento permitiría el aprovechamiento de la energía incidente durante más parte del año, aumentando de manera apreciable los rendimientos óptico y térmico. Abstract Concentrating solar power is the common name of a technology based on capturing the thermal power of solar radiation, in a suitable way to reach temperatures able to activate a conventional (or advanced) thermodynamic cycle to generate electricity; this quest mainly depends on our ability to concentrate solar radiation in a cheap and efficient way. The present thesis is focused to highlight and help solving some of the important issues related to this problem. The need of reducing costs in concentrating the direct solar radiation, but without jeopardizing the thermodynamic objective of heating a fluid up to the required temperature, is of prime importance. Linear Fresnel collectors have been identified in the scientific literature as a technology with high potential to reach this cost reduction. This technology has been selected because of a number of reasons, particularly the degrees of freedom of this type of concentrating configuration and its current immature state. In order to respond to this challenge, a very detailed exercise has been carried out on the optical properties of linear Fresnel collectors. This has been done combining analytic and numerical methods. First, the effect of the design variables on the ratio of energy impinging onto the reflecting surface has been studied using analytically developed equations, together with models that predict the location and direct normal irradiance of the sun at any moment. Similarly, errors due to off-axis aberration, to the aperture of the reflected energy beam and to shading and blocking effects have been obtained analytically. This has allowed the comparison of different shapes of mirrors –flat, cylindrical or parabolic–, as well as a preliminary optimization of the location and width of mirrors and receiver with no need of time-consuming numerical models. Second, in order to prove the validity of the analytic results, but also due to the fact that the study of the reflection process is not precise enough when using analytic equations, a Monte Carlo Ray Trace model has been developed. The developed code is designed specifically for linear Fresnel collectors, which has reduced the computing time by several orders of magnitude compared to a wider commercial software. This justifies the development of the new code. The model has been first used to compare radiation flux intensities and efficiencies of linear Fresnel collectors, both multitube receiver and secondary reflector receiver technologies, with parabolic trough collectors. Finally, the results obtained in the analytic study together with the numeric model have used in order to optimize the solar field for different orientations –North-South and East-West–, different locations –Almería and Aswan–, different tilts of the field towards the Tropic –from 0 deg to 32 deg– and different flux intensity minimum requirements –10 kW/m2 and 25 kW/m2. This thesis work has led to several important findings that should be considered in the design of Fresnel solar fields. First, flat mirrors should not be used in any case, as cylindrical and parabolic mirrors lead to higher flux intensities and efficiencies. Second, it has been concluded that, in locations relatively far from the Tropics such as Almería, East-West embodiments are more efficient, while in Aswan North- South orientation leads to a higher annual efficiency. It must be noted that East-West oriented solar fields require approximately half the number of mirrors than NS oriented fields, can be tilted towards the Equator in order to increase the efficiency and attain similar values of flux intensity at the receiver every day at midday. On the other hand, in NS embodiments the flux intensity is more even during each single day. Finally, it has been proved that the use of analytic designs with variable shift between mirrors and variable width of mirrors across the field can lead to improvements in the electricity generated per reflecting surface square meter up to 6%. The annual optical efficiency of parabolic troughs has been found to be 23% higher than the efficiency of Fresnel fields in Almería, but it is only around 9% higher in Aswan. This implies that, in order to attain the same levelized cost of electricity than parabolic troughs, the required reduction of installation costs per mirror square meter is in the range of 10-25%. Also, it is concluded that linear Fresnel collectors are more suitable for low latitude areas. As a consequence of the studies carried out in this thesis, an innovative storage system has been patented. This system takes into account the variation of the flux intensity along the day, especially for East-West oriented solar fields. As a result, the invention would allow to exploit the impinging radiation along longer time every day, increasing appreciably the optical and thermal efficiencies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La importantísima expansión urbana que sufren las principales ciudades de los países en vías de desarrollo, es el mayor reto que afronta la habitabilidad a nivel mundial. Dentro de la teoría general de la Habitabilidad Básica (HaB-ETSAM-UPM, 1995) la ordenación del territorio y el planeamiento urbanístico son las herramientas determinantes para orientar coherentemente los procesos de urbanización, como se reconoce también desde las principales esferas técnicas a nivel internacional. Pero tales herramientas deben enfocarse a una construcción eficiente del territorio, actuando desde una aproximación multidisciplinar, flexible y directa, que incida en las prioridades específicas de cada contexto. Para ello, resulta fundamental comprender a fondo las realidades específicas de estos ámbitos. La ciudad es un fenómeno complejo en esencia. El tejido construido, en constante proceso de cambio, es el caparazón visible que alberga una maravillosa mezcla entrelazada de espacios, funciones, flujos, personas.... Cada ciudad, diferente y única, se integra en su medio, se adapta a geografías, contextos y climas distintos, evoluciona según dinámicas propias, en incomprensibles (o casi) procesos evolutivos. El estudio de la ciudad, supone siempre una simplificación de la misma. La realidad urbana, por detallado que sea nuestro análisis, siempre contendrá indescifrables relaciones que se nos escapan. En cambio, necesitamos de métodos analíticos que nos ayuden a comprender algo esa complejidad. Acercarnos en ese análisis, es un paso previo fundamental para la formulación de respuestas. En este plano, de avance en la comprensión del hecho urbano, se sitúa este trabajo. Se pone el acento en el enfoque cuantitativo, profundizando en datos básicos concretos, siempre aceptando de partida que esta información es una componente mínima, pero esperamos que sustantiva, de un fenómeno inabordable. Y es esta búsqueda de comprensión material y cuantitativa de la ciudad, el objetivo esencial de la investigación. Se pretende proporcionar una base detallada de aquéllos aspectos fundamentales, que pueden ser medidos en los entornos urbanos y que nos proporcionan información útil para el diagnóstico y las propuestas. Para ello, se aportan rangos y referencias deseables, a través de una herramienta para la comprensión y la valoración de cada contexto, la Matriz de Indicadores. Esta herramienta se concibe desde la reflexión a la aplicación práctica, a la utilidad directa, al aporte concreto para quien pueda servir. Ésta es la voluntad decidida con la que se aborda este trabajo, centrado en los entornos urbanos donde el aporte técnico es prioritario: la Ciudad Informal. La Ciudad Informal, entendida aquí como aquélla que se desarrolla sin los medios suficientes (técnicos, económicos e institucionales) que proporciona la planificación, aquélla por donde la habitabilidad precaria se extiende. Es la ciudad que predomina en los países en vías de desarrollo, en los contextos de bajos recursos, allí donde, precisamente, se concentran los principales déficits y necesidades a nivel global. El enfoque nace de la teoría de la Habitabilidad Básica, de la definición de mínimos posibles para, desde allí, construir el espacio necesario para el desarrollo humano. Éste es el ámbito genérico objeto del trabajo que, a su vez, se nutre, de forma muy importante, de la experiencia directa en la ciudad de Makeni, en Sierra Leona. Esta ciudad nos sirve de prototipo experimental en un doble sentido. Por un lado, sirve como espacio empírico en el que chequear la metodología de valoración cuantitativa; y, por otro, el conocimiento de esta ciudad de tamaño medio africana, que se ha ido adquiriendo en los últimos cinco años, es una base directa para el desarrollo teórico de la propia metodología, que ayuda a atisbar lo esencial en contextos similares. El encaje de todo este recorrido se ha articulado desde una experiencia académica que, como docente, he coordinado directa e intensamente. Experiencia muy enriquecedora, que ha sumado muchas manos y mucho aprendizaje en este tiempo. Teoría y práctica en planeamiento urbano se alternan en el trabajo, nutriéndose la una de la otra y a la inversa. Trabajo que nace desde la pasión por la ciudad y el urbanismo. Desde la búsqueda por comprender y desde la vocación de actuar, de intentar mejorar y hacer más habitables los entornos urbanos. Especialmente allí donde las dificultades se agolpan y el camino se alarga, se llena de polvo. Acumular preguntas a cada paso. Cada vez más preguntas. Las respuestas, si existen, aparecen entrelazadas en dinámicas indescifrables de las que queremos formar parte. Fundirnos por momentos en la misma búsqueda, acompañarla. Sentirnos cerca de quiénes comienzan de cero casi cada día. Y otra vez, arrancar. Y compartir, desde el conocimiento, si acaso es que se puede. Y la ciudad. Brutal, imponente, asfixiante, maravillosa, imposible. Creación colectiva insuperable, de energías sumadas que se cosen sin patrón aparente. O sin más razón que la del propio pulso de la vida. Así se siente Makeni. ABSTRACT The important urban growth suffering major cities of developing countries, is the biggest challenge facing the global habitability. Within the general theory of Basic Habitability (HAB-ETSAM-UPM, 1995) spatial planning and urban planning are the crucial tools to consistently guide the urbanization process, as also recognized from the main technical areas worldwide. But such tools should focus on an efficient construction of the territory, working from a multidisciplinary, flexible and direct approach, that affects the specific priorities of each context. To do this, it is essential to thoroughly understand the specific realities of these areas. The city is essentially a complex phenomenon. The urban fabric in constant flux, is the visible shell that houses a wonderful mixture interlocking spaces, functions, flows, people.... Every city, different and unique, is integrated into its environment, adapted to geographies, contexts and climates, it evolves according to its own dynamics, along (almost) incomprehensible evolutionary processes. The study of the city, is always a simplification of it. The urban reality, even studied from a detailed analysis, always contain undecipherable relationships that escape us. Instead, we need analytical methods that help us understand something that complexity. Moving forward in this analysis is an essential first step in formulating responses. At this level, progressing in understand the urban reality, is where this work is located. The emphasis on the quantitative approach is placed, delving into specific basic data, starting always accepting that this information is just a minimal component, but we hope that substantive, of an intractable phenomenon. And it is this search for materials and quantitative understanding of the city, the main objective of the research. It is intended to provide a detailed basis of those fundamental aspects that can be measured in urban environments that provide us useful information for the diagnosis and proposals. To do this, desirable ranges and references are provided, through a tool for understanding and appreciation of each context, the Indicator Matrix. This tool is conceived from reflection to practical application, to a direct utility, concrete contribution to who can serve. This is the firm resolve with which this work is addressed, centered in urban environments where the technical contribution is a priority: the Informal City. The Informal City, understood here as the urban areas developed without the sufficient resources (technical, economic and institutional) which planning provides, where it is extended the precarious habitability. It is the city that prevails in developing countries, in low-resource settings, where, precisely, the main gaps and needs in the global context are concentrated. The approach stems from the theory of Basic Habitability, the definition of possible minimum, to build the necessary space for human development. This is the generic scope of the work object, that is also based in the direct experience in the town of Makeni, Sierra Leone. This city serves as an experimental prototype in two ways. On the one hand, it serves as a space where empirically check the quantitative assessment methodology; and, secondly, the knowledge of this African city of medium size, which has been acquired in the last five years, is a direct basis for the theoretical development of the methodology itself, which helps to glimpse the essence in similar contexts. The engagement of this whole journey has been articulated from an academic experience, directly and intensely coordinated as teacher. Enriching experience that has added many hands and much learning at this time. Theory and practice in urban planning are mixed at work, enriching the one of the other and vice versa. Work is born from the passion for the city and urbanism. From the search for understanding and from the vocation of acting, trying to improve and make more livable urban environments. Especially where the difficulties are crowded and the road is so long, full of dust. To accumulate questions at every turn. More and more questions. The answers, if do exist, appears inside indecipherable dynamics in which we want to be involved. Merge at times in the same search. Feel close to those who start from scratch almost every day. And again, move forward. And share, from knowledge, if possible. And the city. Brutal, impressive, suffocating, wonderful, impossible. Unsurpassed collective creation, combined energy mix that are sewn with no apparent pattern. Or for no reason other than the pulse of life itself. As it feels the city of Makeni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante los últimos años, y debido a la gran demanda del transporte por ferrocarril, se están construyendo nuevas líneas así como mejorando otras ya existentes, para poder dar cabida a trenes más veloces que hagan disminuir el tiempo del trayecto. Las estructuras para ferrocarril de alta velocidad están sometidas a acciones dinámicas elevadas, ya que al efecto clásico de la carga (aislada) móvil se viene a sumar la resonancia que se manifiesta para velocidades por encima de 220 km/h. Es por ello que, cuando se va construir una nueva estructura o reacondicionar una ya existente, sea necesario realizar un profundo análisis mediante técnicas numéricas de cálculo dinámico con modelos de elementos finitos o mediante modelos analíticos o semianalíticos. El hecho de analizar mediante técnicas complejas (como pueden ser modelos tridimensionales de elementos finitos) todas y cada una de las estructuras de una línea ya existente, puede acarrear un coste no asumible de tiempo y dinero. Así pues, mediante este trabajo, el autor ha desarrollado algoritmos computacionales para poder realizar un análisis preliminar mediante modelos más sencillos, y sesgar así el número de casos que requieren un análisis más complejo. En el presente documento se expone toda la base matemática necesaria para el desarrollo de dichos programas, como son la descomposición modal, las soluciones analíticas de la respuesta de una estructura hiperestática (puentes continuos y pórticos intraslacionales) ante cargas móviles o la interacción vehículo-estructura. Finalmente se muestran los resultados y conclusiones obtenidos de un análisis que se ha llevado a cabo con las herramientas computacionales desarrolladas, ya mencionadas anteriormente, en un total de 77 estructuras semienterradas reales situadas en la línea Madrid-Zaragoza.