851 resultados para Optimización combinatoria


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años la tecnología láser se ha convertido en una herramienta imprescindible en la fabricación de dispositivos fotovoltaicos, ayudando a la consecución de dos objetivos claves para que esta opción energética se convierta en una alternativa viable: reducción de costes de fabricación y aumento de eficiencia de dispositivo. Dentro de las tecnologías fotovoltaicas, las basadas en silicio cristalino (c-Si) siguen siendo las dominantes en el mercado, y en la actualidad los esfuerzos científicos en este campo se encaminan fundamentalmente a conseguir células de mayor eficiencia a un menor coste encontrándose, como se comentaba anteriormente, que gran parte de las soluciones pueden venir de la mano de una mayor utilización de tecnología láser en la fabricación de los mismos. En este contexto, esta Tesis hace un estudio completo y desarrolla, hasta su aplicación en dispositivo final, tres procesos láser específicos para la optimización de dispositivos fotovoltaicos de alta eficiencia basados en silicio. Dichos procesos tienen como finalidad la mejora de los contactos frontal y posterior de células fotovoltaicas basadas en c-Si con vistas a mejorar su eficiencia eléctrica y reducir el coste de producción de las mismas. En concreto, para el contacto frontal se han desarrollado soluciones innovadoras basadas en el empleo de tecnología láser en la metalización y en la fabricación de emisores selectivos puntuales basados en técnicas de dopado con láser, mientras que para el contacto posterior se ha trabajado en el desarrollo de procesos de contacto puntual con láser para la mejora de la pasivación del dispositivo. La consecución de dichos objetivos ha llevado aparejado el alcanzar una serie de hitos que se resumen continuación: - Entender el impacto de la interacción del láser con los distintos materiales empleados en el dispositivo y su influencia sobre las prestaciones del mismo, identificando los efectos dañinos e intentar mitigarlos en lo posible. - Desarrollar procesos láser que sean compatibles con los dispositivos que admiten poca afectación térmica en el proceso de fabricación (procesos a baja temperatura), como los dispositivos de heterounión. - Desarrollar de forma concreta procesos, completamente parametrizados, de definición de dopado selectivo con láser, contactos puntuales con láser y metalización mediante técnicas de transferencia de material inducida por láser. - Definir tales procesos de forma que reduzcan la complejidad de la fabricación del dispositivo y que sean de fácil integración en una línea de producción. - Mejorar las técnicas de caracterización empleadas para verificar la calidad de los procesos, para lo que ha sido necesario adaptar específicamente técnicas de caracterización de considerable complejidad. - Demostrar su viabilidad en dispositivo final. Como se detalla en el trabajo, la consecución de estos hitos en el marco de desarrollo de esta Tesis ha permitido contribuir a la fabricación de los primeros dispositivos fotovoltaicos en España que incorporan estos conceptos avanzados y, en el caso de la tecnología de dopado con láser, ha permitido hacer avances completamente novedosos a nivel mundial. Asimismo los conceptos propuestos de metalización con láser abren vías, completamente originales, para la mejora de los dispositivos considerados. Por último decir que este trabajo ha sido posible por una colaboración muy estrecha entre el Centro Láser de la UPM, en el que la autora desarrolla su labor, y el Grupo de Investigación en Micro y Nanotecnologías de la Universidad Politécnica de Cataluña, encargado de la preparación y puesta a punto de las muestras y del desarrollo de algunos procesos láser para comparación. También cabe destacar la contribución de del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas, CIEMAT, en la preparación de experimentos específicos de gran importancia en el desarrollo del trabajo. Dichas colaboraciones se han desarrollado en el marco de varios proyectos, tales como el proyecto singular estratégico PSE-MICROSIL08 (PSE-iv 120000-2006-6), el proyecto INNDISOL (IPT-420000-2010-6), ambos financiados por el Fondo Europeo de Desarrollo Regional FEDER (UE) “Una manera de hacer Europa” y el MICINN, y el proyecto del Plan Nacional AMIC (ENE2010-21384-C04-02), cuya financiación ha permitido en gran parte llevar a término este trabajo. v ABSTRACT. Last years lasers have become a fundamental tool in the photovoltaic (PV) industry, helping this technology to achieve two major goals: cost reduction and efficiency improvement. Among the present PV technologies, crystalline silicon (c-Si) maintains a clear market supremacy and, in this particular field, the technological efforts are focussing into the improvement of the device efficiency using different approaches (reducing for instance the electrical or optical losses in the device) and the cost reduction in the device fabrication (using less silicon in the final device or implementing more cost effective production steps). In both approaches lasers appear ideally suited tools to achieve the desired success. In this context, this work makes a comprehensive study and develops, until their implementation in a final device, three specific laser processes designed for the optimization of high efficiency PV devices based in c-Si. Those processes are intended to improve the front and back contact of the considered solar cells in order to reduce the production costs and to improve the device efficiency. In particular, to improve the front contact, this work has developed innovative solutions using lasers as fundamental processing tools to metalize, using laser induced forward transfer techniques, and to create local selective emitters by means of laser doping techniques. On the other side, and for the back contact, and approached based in the optimization of standard laser fired contact formation has been envisaged. To achieve these fundamental goals, a number of milestones have been reached in the development of this work, namely: - To understand the basics of the laser-matter interaction physics in the considered processes, in order to preserve the functionality of the irradiated materials. - To develop laser processes fully compatible with low temperature device concepts (as it is the case of heterojunction solar cells). - In particular, to parameterize completely processes of laser doping, laser fired contacts and metallization via laser transfer of material. - To define such a processes in such a way that their final industrial implementation could be a real option. - To improve widely used characterization techniques in order to be applied to the study of these particular processes. - To probe their viability in a final PV device. Finally, the achievement of these milestones has brought as a consequence the fabrication of the first devices in Spain incorporating these concepts. In particular, the developments achieved in laser doping, are relevant not only for the Spanish science but in a general international context, with the introduction of really innovative concepts as local selective emitters. Finally, the advances reached in the laser metallization approached presented in this work open the door to future developments, fully innovative, in the field of PV industrial metallization techniques. This work was made possible by a very close collaboration between the Laser Center of the UPM, in which the author develops his work, and the Research Group of Micro y Nanotecnology of the Universidad Politécnica de Cataluña, in charge of the preparation and development of samples and the assessment of some laser processes for comparison. As well is important to remark the collaboration of the Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas, CIEMAT, in the preparation of specific experiments of great importance in the development of the work. These collaborations have been developed within the framework of various projects such as the PSE-MICROSIL08 (PSE-120000-2006-6), the project INNDISOL (IPT-420000-2010-6), both funded by the Fondo Europeo de Desarrollo Regional FEDER (UE) “Una manera de hacer Europa” and the MICINN, and the project AMIC (ENE2010-21384-C04-02), whose funding has largely allowed to complete this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis realiza una contribución metodológica en el estudio de medidas de adaptación potencialmente adecuadas a largo plazo, donde los sistemas de recursos hídricos experimentan fuertes presiones debido a los efectos del cambio climático. Esta metodología integra el análisis físico del sistema, basándose en el uso de indicadores que valoran el comportamiento de éste, y el análisis económico mediante el uso del valor del agua. El procedimiento metodológico inicia con la construcción de un conjunto de escenarios futuros, que capturan por un lado las características de variabilidad de las aportaciones de diversos modelos climáticos y, por otro, las características hidrológicas de la zona de estudio. Las zonas de estudio seleccionadas fueron las cuencas del Guadalquivir, Duero y Ebro y se utilizaron como datos observados las series de escorrentía en régimen natural estimadas por el modelo SIMPA que está calibrado en la totalidad del territorio español. Estas series observadas corresponden al periodo 1961-1990. Los escenarios futuros construidos representan el periodo 2071-2100. La identificación de medidas de adaptación se apoyó en el uso de indicadores que sean capaces de caracterizar el comportamiento de un sistema de recursos hídricos frente a los efectos del cambio climático. Para ello se seleccionaron los indicadores de calidad de servicio (I1) y de confiabilidad de la demanda (I2) propuestos por Martin-Carrasco et al. (2012). Estos indicadores valoran el comportamiento de un sistema mediante la identificación de los problemas de escasez de agua que presente, y requieren para su cuantificación el uso de un modelo de optimización. Para este estudio se ha trabajado con el modelo de optimización OPTIGES. La determinación de estos indicadores fue realizada para análisis a corto plazo donde los efectos del cambio climático no son de relevancia, por lo que fue necesario analizar su capacidad para ser usados en sistemas afectados por dichos efectos. Para este análisis se seleccionaron tres cuencas españolas: Guadalquivir, Duero y Ebro, determinándose que I2 no es adecuado para este tipo de escenarios. Por ello se propuso un nuevo indicador “Indicador de calidad de servicio bajo cambio climático” (I2p) que mantiene los mismos criterios de valoración que I2 pero que responde mejor bajo fuertes reducciones de aportaciones producto del cambio climático. La metodología propuesta para la identificación de medidas de adaptación se basa en un proceso iterativo en el cual se van afectando diversos elementos que conforman el esquema del sistema bajo acciones de gestión previamente identificadas, hasta llegar a un comportamiento óptimo dado por el gestor. Las mejoras de estas afectaciones son cuantificadas mediante los indicadores I1 e I2p, y de este conjunto de valores se selecciona la que se acerca más al comportamiento óptimo. Debido a la extensa cantidad de información manejada en este análisis, se desarrolló una herramienta de cálculo automatizada en Matlab. El proceso seguido por esta herramienta es: (i) Ejecución del modelo OPTIGES para las diferentes modificaciones por acciones de gestión; (ii) Cálculo de los valores de I1 e I2p para cada una de estas afectaciones; y (iii) Selección de la mejor opción. Este proceso se repite hasta llegar al comportamiento óptimo buscado, permitiendo la identificación de las medidas de adaptación mas adecuadas. La aplicación de la metodología para la identificación de medidas de adaptación se realizó en la cuenca del Guadalquivir, por ser de las tres cuencas analizadas bajo los indicadores I1 e I2p la que presenta los problemas más serios de escasez de agua. Para la identificación de medidas de adaptación se analizaron dos acciones de gestión: 1) incremento de los volúmenes de regulación y 2) reducción de las demandas de riego, primero bajo la valoración del comportamiento físico del sistema (análisis de sensibilidad) permitiendo identificar que la primera acción de gestión no genera cambios importantes en el comportamiento del sistema, que si se presentan bajo la segunda acción. Posteriormente, con la acción que genera cambios importantes en el comportamiento del sistema (segunda acción) se identificaron las medidas de adaptación más adecuadas, mediante el análisis físico y económico del sistema. Se concluyó que en la cuenca del Guadalquivir, la acción de reducción de las demandas de riego permite minimizar e incluso eliminar los problemas de escasez de agua que se presentarían a futuro bajo diferentes proyecciones hidrológicas, aunque estas mejoras implicarían fuertes reducciones en dichas demandas. Siendo las demandas más afectadas aquellas ubicadas en cabecera de cuenca. Los criterios para la reducción de las demandas se encuentran en función de las productividades y garantías con las que son atendidas dichas demandas. This thesis makes a methodological contribution to the study of potentially suitable adaptation measures in the long term, where water resource systems undergo strong pressure due to the effects of climate change. This methodology integrates the physical analysis of the system, by the use of indicators which assess its behavior, and the economic analysis by the use of the value of water. The methodological procedure begins with the building of a set of future scenarios that capture, by one hand, the characteristics and variability of the streamflow of various climate models and, on the other hand, the hydrological characteristics of the study area. The study areas chosen were the Guadalquivir, Ebro and Duero basins, and as observed data where used runoff series in natural regimen estimated by the SIMPA model, which is calibrated in the whole Spanish territory. The observed series are for the 1961-1990 period. The future scenarios built represent the 2071-2100 periods. The identification of adaptation measures relied on the use of indicators that were able of characterize the behavior of one water resource system facing the effects of climate change. Because of that, the Demand Satisfaction Index (I1) and the Demand Reliability Index (I2) proposed by Martin-Carrasco et al. (2012) were selected. These indicators assess the behavior of a system by identifying the water scarcity problems that it presents, and require in order to be quantified the use of one optimization model. For this study the OPTIGES optimization model has been used. The determination of the indicators was made for the short-term analysis where the climates change effect are not relevant, so it was necessary to analyze their capability to be used in systems affected by those these. For this analysis three Spanish basins were selected: Guadalquivir, Duero and Ebro. It was determined that the indicator I2 is not suitable for this type of scenario. It was proposed a new indicator called “Demand Reliability Index under climate change” (I2p), which keeps the same assessment criteria than I2, but responsive under heavy reductions of streamflow due to climate change. The proposed methodology for identifying adaptation measures is based on an iterative process, in which the different elements of the system´s schema are affected by previously defined management actions, until reach an optimal behavior given by the manager. The improvements of affectations are measured by indicators I1 e I2p, and from this set of values it is selected the affectation that is closer to the optimal behavior. Due to the large amount of information managed in this analysis, it was developed an automatic calculation tool in Matlab. The process followed by this tool is: Firstly, it executes the OPTIGES model for the different modifications by management actions; secondly, it calculates the values of I1 e I2p for each of these affectations; and finally it chooses the best option. This process is performed for the different iterations that are required until reach the optimal behavior, allowing to identify the most appropriate adaptation measured. The application of the methodology for the identification of adaptation measures was conducted in the Guadalquivir basin, due to this was from the three basins analyzed under the indicators I1 e I2p, which presents the most serious problems of water scarcity. For the identification of adaptation measures there were analyzed two management actions: 1) To increase the regulation volumes, and 2) to reduce the irrigation demands, first under the assessment of the physical behavior of the system (sensibility analysis), allowing to identify that the first management action does not generate significant changes in the system´s behavior, which there are present under the second management action. Afterwards, with the management action that generates significant changes in the system´s behavior (second management action), there were identified the most adequate adaptation measures, through the physical and economic analysis of the system. It was concluded that in the Guadalquivir basin, the action of reduction of irrigation demands allows to minimize or even eliminate the water scarcity problems that could exist in the future under different hydrologic projections, although this improvements should involve strong reductions of the irrigation demands. Being the most affected demands those located in basins head. The criteria for reducing the demands are based on the productivities and reliabilities with which such demands are meet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un estudio geofísico mediante resonancia se realiza mediante la excitación del agua del subsuelo a partir de la emisión de una intensidad variable a lo largo de un cable extendido sobre la superficie en forma cuadrada o circular. El volumen investigado depende del tamaño de dicho cable, lo cual, junto con la intensidad utilizada para la excitación del agua determina las diferentes profundidades del terreno de las que se va a extraer información, que se encuentran entre 10 y 100 m, habitualmente. La tesis doctoral presentada consiste en la adaptación del Método de Resonancia Magnética para su utilización en aplicaciones superficiales mediante bucles de tamaño reducido. Dicha información sobre el terreno en la escala desde decímetros a pocos metros es interesante en relación a la física de suelos y en general en relación a diferentes problemas de Ingeniería, tanto de extracción de agua como constructiva. Una vez realizada la revisión del estado de conocimiento actual del método en relación a sus aplicaciones usuales, se estudian los problemas inherentes a su adaptación a medidas superficiales. Para solventar dichos problemas se han considerado dos líneas de investigación principales: En primer lugar se realiza un estudio de la influencia de las características del pulso de excitación emitido por el equipo en la calidad de las medidas obtenidas, y las posibles estrategias para mejorar dicho pulso. El pulso de excitación es un parámetro clave en la extracción de información sobre diferentes profundidades del terreno. Por otro lado se busca la optimización del dispositivo de medida para su adaptación al estudio de los primeros metros del suelo mediante el equipo disponible, tratándose éste del equipo NumisLITE de la casa Iris Instruments. ABSTRACT Magnetic Resonance Sounding is a geophysical method performed through the excitation of the subsurface water by a variable electrical intensity delivered through a wire extended on the surface, forming a circle or a square. The investigated volume depends on the wire length and the intensity used, determining the different subsurface depths reached. In the usual application of the method, this depth ranges between 10 and 100 m. This thesis studies the adaptation of the above method to more superficial applications using smaller wire loops. Information about the subsurface in the range of decimeter to a few meters is interesting regarding physics of soils, as well as different Engineering problems, either for water extraction or for construction. After a review of the nowadays state of the art of the method regarding its usual applications, the special issues attached to its use to perform very shallow measures are studied. In order to sort out these problems two main research lines are considered: On the one hand, a study about the influence of the characteristics of the emitted pulse in the resulting measure quality is performed. Possible strategies in order to improve this pulse are investigated, as the excitation pulse is a key parameter to obtain information from different depths of the subsurface. On the other hand, the study tries to optimize the measurement device to its adaptation to the study of the first meters of the ground with the available instrumentation, the NumisLITE equipment from Iris Instruments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo se enmarca dentro del proyecto “Operación de Autopistas Seguras, Inteligentes y Sostenibles (OASIS)”, cuyo principal objetivo es definir la autopista del futuro, aquella que en su operación presentará niveles notablemente altas de seguridad, servicio al usuario y sostenibilidad. Para lograrlo, uno de los parámetros a tener en cuenta es la conservación y optimización del paisaje por el que discurren. Esta tesis desarrolla una metodología de valoración del paisaje de las autopistas, aplicando dicha metodología a diversos tramos de las autopistas gestionadas por empresas del proyecto (OHL Concesiones, Iridium y Abertis). El estudio se ha llevado a cabo en más de 2.000 km de autopistas, identificando los diferentes paisajes vistos desde la carretera y elaborando un catálogo de fotografías digitalizadas y georreferenciadas de los paisajes; desarrollando y aplicando una novedosa metodología de valoración de la calidad del paisaje; determinando las diferencias entre el paisaje percibido desde las autopistas por medio de fotografías y mediante la utilización de mapas representativos de paisaje; identificando los elementos de diseño paisajístico (puentes, estaciones de servicio, etc.) y estableciendo alternativas para su mejor adecuación paisajística; y estimando el impacto que provocan estas infraestructuras al observarse desde fuera. Es de esperar que las conclusiones extraídas de este proyecto permitan una mejor integración paisajística de las autopistas del futuro, convirtiéndose en instrumentos para mostrar paisajes de mayor calidad, y reduciendo el impacto como elementos modificadores del territorio. Summary This work is within the framework of the project "Operation of Safe, Intelligent and Sustainable Highways (OASIS)," whose main objective is to define the highway of the future, which in its operation will present significantly high levels of safety, customer service and sustainability. To achieve this, one of the parameters to consider is landscape conservation and improvement along highways. This thesis develops a methodology for assessing the landscape of highways, applying the model to different stretches of highway managed by project companies (OHL Concessions, Iridium and Abertis). The study was carried out in more than 2.000 km of highways, identifying the different landscapes seen from the road and developing a catalog of digitized and georeferenced photographs of landscapes; developing and applying a new methodology for assessing the quality of the landscape; determining the differences between the landscape seen from highways through photographs and use of landscape maps; identifying the landscape design elements (bridges, service area, etc.) and providing alternatives for better landscape; and integration estimating the impact that cause these infrastructures when viewed from outside. It is expected that the conclusions extract from this project allow to better landscape integrate of the future highways, become instruments to show higher quality landscapes, reducing the impact as modifiers´ elements of the territory.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este libro, Problemas de Matemáticas, junto con otros dos, Problemas de Geometría y Problemas de Geometría Analítica y Diferencial, están dedicados a la presentación y resolución de problemas que se planteaban hace unas décadas, en la preparación para ingreso en las carreras de ingeniería técnica superior. Incluye 1578 problemas, de los que 848 se refieren al Álgebra (operaciones algebraicas, divisibilidad, combinatoria, determinantes, ecuaciones e inecuaciones, fracciones continuas, números complejos, límites, sucesiones y series, y algunos sobre vectores y mecánica), 175 a la Trigonometría (plana y esférica), 282 al Cálculo diferencial (funciones de una variable, y de dos o más variables), 246 al Cálculo integral (integrales, integrales definidas, integrales en el campo de dos o más variables y ecuaciones diferenciales) y 27 a la Estadística. Esta tercera edición de Problemas de Matemáticas tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente proyecto consiste en la modelización y optimización de una planta de gasificación integrada en ciclo combinado de 400 MW de potencia neta, mediante el uso del programa Cycle-Tempo, desarrollado por la Universidad de Delft. Para la modelización de la planta, se ha dividido en sus dos unidades principales: la isla de gasificación y el ciclo combinado. Para la validación del modelo de la isla de gasificación, se ha utilizado una composición de referencia de un combustible gasificable y se ha obtenido la composición del gas de síntesis esperada. Se han modelado y optimizado varias configuraciones de ciclo combinado, variando los parámetros característicos de la caldera de recuperación de calor. Se ha realizado la integración de las dos unidades para maximizar la potencia entregada por la planta. Finalmente, se ha estimado el balance anual de energía del ciclo combinado alimentado con gas natural y con el gas de síntesis, con el fin de comparar las rentabilidades económicas obtenidas. Mediante el estudio realizado, se deduce que la forma más eficiente de producir energía, a partir del uso del carbón, es la tecnología de gasificación integrada en ciclo combinado, pese a que su rendimiento sea inferior al ciclo combinado alimentado con gas natural. ABSTRACT The aim of this project is the modeling and optimization of an integrated gasification combined cycle plant of 400 MW net power, using the Cycle-Tempo program, developed by the University of Delft. For the modeling of the plant, it has been divided into its two main units: the island of gasification and the combined cycle. For the model validation of the gasification island, a reference composition of a gasifiable fuel has been used and the expected synthesis gas composition was obtained. Several configurations of combined cycle have been modeled and optimized by varying the characteristic parameters of the heat recovery steam generator. It has made the integration of the two units to reach maximum optimization of power, which has been delivered by the plant. Finally, it has been estimated the annual energy balance for the combined cycle plant fueled with natural gas and with syngas, in order to compare the profitability obtained with each one. Through the study, it is deduced that the most efficient way to produce energy from the use of coal, is the integrated gasification combined cycle technology, although their performance is lower than that obtained from the combined cycle fueled with natural gas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La finalidad de este proyecto consiste en realizar un estudio de la gestión del agua del complejo minero de carbón que SAMCA tiene en Ariño, así como recoger distintas iniciativas de mejora para su optimización en la actualidad. Por otro lado, también se pretende analizar la problemática de la posible clausura de la mina de interior “Sierra de Arcos”, una de las principales aportadoras de agua al sistema, y se presentan las posibles opciones para el aprovechamiento óptimo de las aguas superficiales y subterráneas de cara al futuro de la explotación para garantizar un balance hídrico en el que los aportes y los consumos de agua estén equilibrados. Después de este exhaustivo análisis, se deciden cuáles son las mejores opciones desde un punto de vista tanto técnico como económico. ABSTRACT The purpose of this Project is to carry out a study about the management of SAMCA´s coalmine complex in Ariño, as well as gathering a range of initiatives to help optimizing the present system. Additionally, the study sets out to analyze the possible problems arising from the closing of “Sierra de Arcos” underground mine, contributor of one of the main sources of water into the system. Based on the analysis, a series of possible options are presented to reach the ideal utilization of the superficial and underground water. These proposals aim to ensure an optimal water balance sheet between the water contributions and the water consumptions. The results obtained from this exhaustive analysis are used to reach a conclusion for the project by presenting what are considered the best options from both, a technical and an economic point of view.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los incendios forestales son un problema recurrente en España que produce cada año grandes pérdidas económicas, ambientales y en ocasiones humanas. A la complejidad de los siniestros en España por múltiples factores (clima, fisiografía, propiedad), hay que sumarle la descentralización política, pues las comunidades autónomas tienen la competencia de los incendios forestales, bajo las directrices de una legislación básica del Estado. La estadística de incendios forestales es una herramienta fundamental para el análisis de este fenómeno. Gracias a ella se puede lograr un profundo conocimiento del problema que permita lograr una mejora de los resultados y una optimización de los recursos empleados en su extinción. A partir de los datos de siniestros desde 2001 a 2010 se han elaborado unos indicadores que tienen como objetivo la realización de planes de actuación y prevención para un futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha estudiado la determinación de especies de arsénico y de contenidos totales de arsénico y metales pesados, específicamente cadmio, cromo, cobre, níquel, plomo y cinc, en muestras de interés medioambiental por su elevada capacidad acumuladora de metales, concretamente algas marinas comestibles y plantas terrestres procedentes de suelos contaminados por la actividad minera. La determinación de contenidos totales se ha llevado a cabo mediante espectrometría de emisión atómica con plasma de acoplamiento inductivo (ICP‐AES), así como por espectrometría de fluorescencia atómica con generación de hidruros (HG‐AFS), para bajos contenidos de arsénico. Las muestras fueron mineralizadas en medio ácido y calentamiento en horno de microondas. Los métodos fueron validados a través de su aplicación a materiales de referencia de matriz similar a la de las muestras, certificados en contenidos totales de los elementos seleccionados. Los resultados obtenidos mostraron su elevada capacidad de bioabsorción, especialmente en relación a los elevados contenidos de arsénico encontrados en algunas especies de algas pardas (Phaeophytas). En las plantas, se calcularon los factores de translocación, acumulación y biodisponibilidad de los elementos estudiados, permitiendo identificar a la especie Corrigiola telephiifolia como posible acumuladora de plomo e hiperacumuladora de arsénico. La determinación de especies de arsénico hidrosolubles en las muestras objeto de estudio, se llevó a cabo por cromatografía líquida de alta eficacia (HPLC) acoplado a ICP‐AES, HG‐ICP‐AES y HG‐AFS, incluyendo una etapa previa de foto‐oxidación. Los métodos desarrollados, mediante intercambio aniónico y catiónico, permitieron la diferenciación de hasta once especies de arsénico. Para el análisis de las muestras, fue necesaria la optimización de métodos de extracción, seleccionándose la extracción asistida por microondas (MAE) con agua desionizada. Asimismo, se realizaron estudios de estabilidad de arsénico total y de las especies hidrosolubles presentes en las algas, tanto sobre la muestra sólida como en sus extractos acuosos, evaluando las condiciones de almacenamiento adecuadas. En el caso de las plantas, la aplicación del diseño factorial de experimentos permitió optimizar el método de extracción y diferenciar entre las especies de arsénico presentes en forma de iones sencillos de mayor movilidad y el arsénico más fuertemente enlazado a componentes estructurales. Los resultados obtenidos permitieron identificar la presencia de arseniato (As(V)) y arsenito (As(III)) en las plantas, así como de ácido monometilarsónico (MMA) y óxido de trimetilarsina (TMAO) en algunas especies. En la mayoría de las algas se encontraron especies tóxicas, tanto mayoritarias (arseniato) como minoritarias (ácido dimetilarsínico (DMA)), así como hasta cuatro arsenoazúcares. Los resultados obtenidos y su estudio a través de la legislación vigente, mostraron la necesidad de desarrollar una reglamentación específica para el control de este tipo de alimentos. La determinación de especies de arsénico liposolubles en las muestras de algas se llevó a cabo mediante HPLC, en modo fase inversa, acoplado a espectrometría de masas con plasma de acoplamiento inductivo (ICP‐MS) y con ionización por electrospray (ESI‐MS), permitiendo la elucidación estructural de estos compuestos a través de la determinación de sus masas moleculares. Para ello, fue necesaria la puesta a punto de métodos extracción y purificación de los extractos. La metodología desarrollada permitió identificar hasta catorce especies de arsénico liposolubles en las algas, tres de ellas correspondientes a hidrocarburos que contienen arsénico, y once a arsenofosfolípidos, además de dos especies desconocidas. Las masas moleculares de las especies identificadas fueron confirmadas mediante cromatografía de gases acoplada a espectrometría de masas (GC‐MS) y espectrometría de masas de alta resolución (HR‐MS). ABSTRACT The determination of arsenic species and total arsenic and heavy metal contents (cadmium, chromium, cooper, nickel, lead and zinc) in environmental samples, with high metal accumulator capacity, has been studied. The samples studied were edible marine algae and terrestrial plants from soils polluted by mining activities. The determination of total element contents was performed by inductively coupled plasma atomic emission spectrometry (ICP‐AES), as well as by hydride generation atomic fluorescence spectrometry (HG‐AFS) for low arsenic contents. The samples studied were digested in an acidic medium by heating in a microwave oven. The digestion methods were validated against reference materials, with matrix similar to sample matrix and certified in total contents of the elements studied. The results showed the high biosorption capacity of the samples studied, especially regarding the high arsenic contents in some species of brown algae (Phaeophyta division). In terrestrial plants, the translocation, accumulation and bioavailability factors of the elements studied were calculated. Thus, the plant species Corrigiola telephiifolia was identified as possible lead accumulator and arsenic hyperaccumulator. The determination of water‐soluble arsenic species in the samples studied was carried out by high performance liquid chromatography (HPLC) coupled to ICP‐AES, HG‐ICP‐AES and HG‐AFS, including a prior photo‐oxidation step. The chromatographic methods developed, by anion and cation exchange, allowed us to differentiate up to eleven arsenic species. The sample analysis required the optimization of extraction methods, choosing the microwave assisted extraction (MAE) with deionized water. On the other hand, the stability of total arsenic and water‐soluble arsenic species in algae, both in the solid samples and in the water extracts, was studied, assessing the suitable storage conditions. In the case of plant samples, the application of a multivariate experimental design allowed us to optimize the extraction method and differentiate between the arsenic species present as simple ions of higher mobility and the arsenic more strongly bound to structural components. The presence of arsenite (As(III)) and arsenate (As(V)) was identified in plant samples, as well as monomethylarsonic acid (MMA) and trimethylarsine oxide (TMAO) in some cases. Regarding algae, toxic arsenic species were found in most of them, both As(V) and dimethylarsinic acid (DMA), as well as up to four arsenosugars. These results were discussed according to the current legislation, showing the need to develop specific regulations to control this kind of food products. The determination of lipid‐soluble arsenic species in alga samples was performed by reversed‐phase HPLC coupled to inductively coupled plasma and electrospray mass spectrometry (ICP‐MS and ESI‐MS), in order to establish the structure of these compounds by determining the corresponding molecular masses. For this purpose, it was necessary to develop an extraction method, as well as a clean‐up method of the extracts. The method developed permitted the identification of fourteen lipid‐soluble arsenic compounds in algae, corresponding to three arsenic‐hydrocarbons and eleven arsenosugarphospholipids, as well as two unknown compounds. Accurate mass measurements of the identified compounds were performed by gas chromatography coupled to mass spectrometry (GC‐MS) and high resolution mass spectrometry (HR‐MS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

These slides present several 3-D reconstruction methods to obtain the geometric structure of a scene that is viewed by multiple cameras. We focus on the combination of the geometric modeling in the image formation process with the use of standard optimization tools to estimate the characteristic parameters that describe the geometry of the 3-D scene. In particular, linear, non-linear and robust methods to estimate the monocular and epipolar geometry are introduced as cornerstones to generate 3-D reconstructions with multiple cameras. Some examples of systems that use this constructive strategy are Bundler, PhotoSynth, VideoSurfing, etc., which are able to obtain 3-D reconstructions with several hundreds or thousands of cameras. En esta presentación se tratan varios métodos de reconstrucción 3-D para la obtención de la estructura geométrica de una escena que es visualizada por varias cámaras. Se enfatiza la combinación de modelado geométrico del proceso de formación de la imagen con el uso de herramientas estándar de optimización para estimar los parámetros característicos que describen la geometría de la escena 3-D. En concreto, se presentan métodos de estimación lineales, no lineales y robustos de las geometrías monocular y epipolar como punto de partida para generar reconstrucciones con tres o más cámaras. Algunos ejemplos de sistemas que utilizan este enfoque constructivo son Bundler, PhotoSynth, VideoSurfing, etc., los cuales, en la práctica pueden llegar a reconstruir una escena con varios cientos o miles de cámaras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Está Tesis refleja los trabajos de investigación que tienen como resultado el desarrollo de una metodología cuyo objetivo es la automatización optimizada en la generación de grandes entornos virtuales destinados a simulaciones de conducción terrestre guiada, es decir, sobre trayectorias predefinidas, bajo PC. En ella se aborda el ciclo completo de generación de un entorno virtual, aportando soluciones optimizadas en cada una de las fases. Para definir estas soluciones, se ha llevado a cabo un estudio en profundidad de las características y requisitos exigidos a este tipo de representaciones virtuales así como de las posibles vías resolutivas, concluyéndose con el establecimiento de tres fases constructivas. La primera fase es la del análisis perceptivo visual. La presente Tesis, tras sintetizar las características que definen a este tipo de entornos así como sus condiciones perceptivas, propone una metodología constructiva que saca el máximo partido de las mismas de una manera hasta ahora no considerada: la creación del entorno mediante el ensamblaje y repetición (instanciación) de un número finito de patrones repetitivos o módulos. Son múltiples las ventajas aportadas por este sistema modular de instanciación: disminución de las labores de modelado, reducción drástica de la memoria de almacenamiento requerida y de los tiempos de carga, facilitación de las tareas de creación y edición de los escenarios. La segunda fase es la generación geométrica y topológica del entorno. El elevado volumen y heterogeneidad de la información a manejar hace necesario el desarrollo de métodos que automaticen el procesamiento de la misma. La presente Tesis desarrolla un sistema consistente en varios criterios de organización, corrección y almacenamiento de la información de partida. Dicho sistema permite por un lado la construcción fácilmente escalable y editable de entornos que cumplan las normativas circulatorias vigentes y por otro lado garantiza un óptimo flujo de la información entre los diversos subsistemas integrantes de la simulación. Flujo que ha sido plasmado en la elaboración de diversos protocolos de comunicación. La tercera fase es la del posicionamiento 3D de la base de datos visual, su jerarquización y optimización escénica. En esta fase, la presente Tesis ha desarrollado una serie de Algoritmos de Posicionamiento modular que garantizan el correcto acoplamiento de los módulos a lo largo de una serie de líneas directrices. Dichas líneas son creadas a partir de la definición de las trayectorias circulatorias, lo que ha permitido a su vez, la definición por parte de esta Tesis de un sistema de niveles de detalle discretos pseudo-variantes con el punto de vista, que permite optimizar la carga geométrica del escenario, mediante la definición en tiempo de precarga de los posibles niveles de detalle de cada módulo en función de su distancia transversal a la trayectoria. Por otro lado, con el fin de potenciar las ventajas de este sistema de instanciación esta Tesis propone el empleo de una serie de shaders que deforman los módulos en tiempo real, lo que permite disminuir el número de módulos necesarios en tiempo de precarga y aumenta la versatilidad constructiva y realismo de los escenarios. Finalmente, esta Tesis organiza todo el escenario en un grafo de la escena (scene graph) que busca minimizar el recorrido del mismo con el fin de maximizar las velocidades de refresco y facilitar las labores de edición de los escenarios. En este punto, la construcción modular del entorno es fundamental para alcanzar dichos objetivos. Todos los planteamientos teóricos expuestos en esta Tesis se han materializado en las correspondientes aplicaciones informáticas que se han validado como herramientas de desarrollo en la creación de grandes entornos virtuales de simuladores actualmente en funcionamiento, como los de Metro de Madrid de las series 7000, 8000, 3000, 9000 y Citadis y en otros experimentales donde también se han implementado los criterios y resultados perceptivos que optimizan estos simuladores.