1000 resultados para Seguridad industrial-Investigaciones-Tesis y disertaciones académicas
Resumo:
En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].
Resumo:
La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.
Resumo:
Son numerosos los expertos que predicen que hasta pasado 2050 no se utilizarán masivamente las energías de origen renovable, y que por tanto se mantendrá la emisión de dióxido de carbono de forma incontrolada. Entre tanto, y previendo que este tipo de uso se mantenga hasta un horizonte temporal aún más lejano, la captura, concentración y secuestro o reutilización de dióxido de carbono es y será una de las principales soluciones a implantar para paliar el problema medioambiental causado. Sin embargo, las tecnologías existentes y en desarrollo de captura y concentración de este tipo de gas, presentan dos limitaciones: las grandes cantidades de energía que consumen y los grandes volúmenes de sustancias potencialmente dañinas para el medioambiente que producen durante su funcionamiento. Ambas razones hacen que no sean atractivas para su implantación y uso de forma extensiva. La solución planteada en la presente tesis doctoral se caracteriza por la ausencia de residuos producidos en la operación de captura y concentración del dióxido de carbono, por no utilizar substancias químicas y físicas habituales en las técnicas actuales, por disminuir los consumos energéticos al carecer de sistemas móviles y por evitar la regeneración química y física de los materiales utilizados en la actualidad. Así mismo, plantea grandes retos a futuras innovaciones sobre la idea propuesta que busquen fundamentalmente la disminución de la energía utilizada durante su funcionamiento y la optimización de sus componentes principales. Para conseguir el objetivo antes citado, la presente tesis doctoral, una vez establecido el planteamiento del problema al que se busca solución (capítulo 1), del estudio de las técnicas de separación de gases atmosféricos utilizadas en la actualidad, así como del de los sistemas fundamentales de las instalaciones de captura y concentración del dióxido de carbono (capítulo 2) y tras una definición del marco conceptual y teórico (capítulo 3), aborda el diseño de un prototipo de ionización fotónica de los gases atmosféricos para su posterior separación electrostática, a partir del estudio, adaptación y mejora del funcionamiento de los sistemas de espectrometría de masas. Se diseñarán y desarrollarán los sistemas básicos de fotoionización, mediante el uso de fuentes de fotones coherentes, y los de separación electrostática (capítulo 4), en que se basa el funcionamiento de este sistema de separación de gases atmosféricos y de captura y concentración de dióxido de carbono para construir un prototipo a nivel laboratorio. Posteriormente, en el capítulo 5, serán probados utilizando una matriz experimental que cubra los rangos de funcionamiento previstos y aporte suficientes datos experimentales para corregir y desarrollar el marco teórico real, y con los que se pueda establecer y corregir un modelo físico– matemático de simulación (capítulo 6) aplicable a la unidad en su conjunto. Finalmente, debido a la utilización de unidades de ionización fotónica, sistemas láseres intensos y sistemas eléctricos de gran potencia, es preciso analizar el riesgo biológico a las personas y al medioambiente debido al impacto de la radiación electromagnética producida (capítulo 7), minimizando su impacto y cumpliendo con la legislación vigente. En el capítulo 8 se planteará un diseño escalable a tamaño piloto de la nueva tecnología propuesta y sus principales modos de funcionamiento, así como un análisis de viabilidad económica. Como consecuencia de la tesis doctoral propuesta y del desarrollo de la unidad de separación atmosférica y de captura y concentración de dióxido de carbono, surgen diversas posibilidades de estudio que pueden ser objeto de nuevas tesis doctorales y de futuros desarrollos de ingeniería. El capítulo 9 tratará de incidir en estos aspectos indicando líneas de investigación para futuras tesis y desarrollos industriales. ABSTRACT A large number of experts predict that until at least 2050 renewable energy sources will not be massively used, and for that reason, current Primary Energy sources based on extensive use of fossil fuel will be used maintaining out of control emissions, Carbon Dioxide above all. Meanwhile, under this scenario and considering its extension until at least 2050, Carbon Capture, Concentration, Storage and/or Reuse is and will be one of the main solutions to minimise Greenhouse Gasses environmental effect. But, current Carbon Capture and Storage technology state of development has two main problems: it is a too large energy consuming technology and during normal use it produces a large volume of environmentally dangerous substances. Both reasons are limiting its development and its extensive use. This Ph Degree Thesis document proposes a solution to get the expected effect using a new atmospheric gasses separation system with the following characteristics: absence of wastes produced, it needs no chemical and/or physical substances during its operation, it reduces to minimum the internal energy consumptions due to absence of mobile equipment and it does not need any chemical and/or physical regeneration of substances. This system is beyond the State of the Art of current technology development. Additionally, the proposed solution raises huge challenges for future innovations of the proposed idea finding radical reduction of internal energy consumption during functioning, as well as regarding optimisation of main components, systems and modes of operation. To achieve this target, once established the main problem, main challenge and potential solving solutions (Chapter 1), it is established an initial starting point fixing the Atmospheric Gasses Separation and Carbon Capture and Storage developments (Chapter 2), as well as it will be defined the theoretical and basic model, including existing and potential new governing laws and mathematical formulas to control its system functioning (Chapter 3), this document will deal with the design of an installation of an operating system based on photonic ionization of atmospheric gasses to be separated in a later separation system based on the application of electrostatic fields. It will be developed a basic atmospheric gasses ionization prototype based on intense radioactive sources capable to ionize gasses by coherent photonic radiation, and a basic design of electrostatic separation system (Chapter 4). Both basic designs are the core of the proposed technology that separates Atmospheric Gasses and captures and concentrates Carbon Dioxide. Chapter 5 will includes experimental results obtained from an experimental testing matrix covering expected prototype functioning regimes. With the obtained experimental data, theoretical model will be corrected and improved to act as the real physical and mathematical model capable to simulate real system function (Chapter 6). Finally, it is necessary to assess potential biological risk to public and environment due to the proposed use of units of intense energy photonic ionization, by laser beams or by non–coherent sources and large electromagnetic systems with high energy consumption. It is necessary to know the impact in terms of and electromagnetic radiation taking into account National Legislation (Chapter 7). On Chapter 8, an up scaled pilot plant will be established covering main functioning modes and an economic feasibility assessment. As a consequence of this PhD Thesis, a new field of potential researches and new PhD Thesis are opened, as well as future engineering and industrial developments (Chapter 9).
Resumo:
En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.
Resumo:
Los invernaderos permiten tener un mayor control del entorno donde crecen las plantas. Son utilizados para aumentar la calidad y rendimiento de las plantaciones en ciertas ubicaciones que tienen estaciones cortas de crecimiento, o bien malas condiciones de iluminación debido a las localizaciones geográficas, por lo que permiten mejorar la producción de alimentos vegetales en entornos extremos. En este proyecto se ha desarrollado una maqueta de un invernadero y se propone el uso del microcontrolador Arduino y del sistema operativo Android, con el objetivo de lograr una tarea de control y monitorización sobre dicha maqueta. Por una parte, se utiliza la placa Arduino como tarjeta controladora del sistema y, a su vez, como tarjeta adquiridora de datos, y por otra parte se ha desarrollado una aplicación Android capaz de monitorizar y supervisar el estado del invernadero. Para llevar a cabo el flujo de información entre el invernadero y los dispositivos de monitorización, se ha desarrollado una aplicación servidor bajo código C++, capaz de administrar la información del invernadero en una base de datos MySQL y, de forma concurrente, atender las peticiones de los clientes Android registrados, proporcionándoles la información que soliciten, y ejecutando las acciones que reciben.
Resumo:
La industria metalúrgica estatal venezolana ha vivido, desde sus inicios, procesos cíclicos de cambios y ajustes tecnológicos. Estos procesos no han sido objeto de sistematización que asegure el aprendizaje y apropiación del conocimiento. Este hecho, aún hoy, ha obstaculizado los procesos de apropiación y mejora de las tecnologías asociadas al sector. A partir del acompañamiento a iniciativas de participación de grupos de interés surgidos del seno de los trabajadores, se planteó esta investigación que tuvo como propósito la determinación de condiciones y relaciones para su participación directa en los procesos de mejora de las tecnologías existentes y el fortalecimiento del aprendizaje asociado. Se consideraron dos ámbitos Latinoamericanos donde hay manifestación de gestión colectiva y participación: Venezuela y Argentina. En el caso venezolano, el abordaje se realizó bajo la Investigación Acción Participativa (IAP), desarrollando la “investigación próxima”, como estrategia de acompañamiento, mediante “talleres de formación-investigación” y la sistematización de experiencias considerando la perspectiva y necesidades de los actores. En el caso argentino, el abordaje se realizó mediante visitas, entrevistas, reuniones y encuentros. Los talleres realizados en Venezuela, en un contexto de diálogo de saberes, facilitaron el surgimiento de herramientas prácticas para la sistematización de su propia experiencia (“Preguntas generadoras”, “Mi historia con la tecnología”, “Bitácora de aprendizaje”). El intercambio con los pares argentinos ha generado una red que plantea la posibilidad de construcción y nucleación conjunta de saberes y experiencia, tanto para los trabajadores como para los investigadores. Los casos estudiados referidos a las empresas recuperadas por los trabajadores (ERTs) argentinos evidencian un proceso de participación marcada por su autonomía en la gestión de la empresa, dadas las circunstancias que los llevó a asumirla para conservar sus puestos de trabajo. De estos casos emergieron categorías asociadas con elementos de gestión de un proceso técnico–tecnológico, como la participación en la planificación, concepción o diseño de la mejora. La participación en general está asociada al hecho asambleario, vinculado a las prácticas de toma de decisiones autogestionarias como expresión de una alta participación. La Asamblea, como máxima instancia de participación, y el Consejo de Administración son las formas de participación prevalecientes. En cuanto al aprendizaje, los trabajadores de las ERTs argentinas aportaron categorías de gran significación a los procesos de socialización del conocimiento: conocimiento colectivo y cooperación del conocimiento, rescate de los saberes y formación de trabajadores que tomen el relevo. Las categorías surgidas de las ERTs argentinas, los referentes teóricos y el interés de los trabajadores venezolanos fueron la base para la valoración tanto de su grado de participación en las mejoras a procesos tecnológicos emprendidas, como del aprendizaje asociado. Ésta valoración se realizó bajo una aproximación borrosa dado el carácter ambiguo de estas categorías que fueron trabajadas como conjuntos que se relacionan, más que como variables. Se encontró que la participación, se configura como un sub-conjunto del aprendizaje para contribuir a su fortalecimiento. Las condiciones y relaciones para fortalecer la participación en los asuntos tecnológicos surgieron a partir de la sistematización y síntesis de ambas experiencias (Venezuela y Argentina) conjugando una estructura que contempla la formación para la nucleación de colectivos de saberes (proyectos de mejora o innovaciones), las redes por afinidad, la sistematización de su propia experiencia técnica y los enlaces institucionales. Estos resultados dan cuenta de la integración de los intereses de las partes (trabajadores, investigadores, instituciones), mediante las estrategias de encuentro, de sistematización de los propios métodos y de conformación de los “colectivos de saberes”, la red de IAP en la industria (IAP Industrial) considerando la “deriva de la investigación”, bajo discursos práctico–teóricos propios, como posibilidad de posicionamiento de su participación en los asuntos tecnológicos de sus respectivas organizaciones, abriendo una oportunidad de ampliación de la experiencia en otros ámbitos y sectores. ABSTRACT Venezuelan's state owned steel industry has experienced since its earliest years, cycles of change and technological adjustments. These processes have not been systematized to ensure learning and knowledge in those organizations. This fact, even today, has hindered the processes of appropriation and improving the technologies associated with the sector. In order to support initiatives involving metalworker interest groups, this research was aimed at determining conditions and relations for their direct participation in process improvements to existing technologies and strengthening the associated learning. Two Latin American countries, Venezuela and Argentina, were considered on the base of their collective management and participation experiences. The Venezuelan approach was carried out under the Participatory Action Research (PAR) strategy, through the ‘proximal research’ as support strategy, by means of ‘workshops–research’ and systematization of experiences considering the perspective and needs of actors. Workshops were carried out in metallurgical enterprises from steel and aluminum at Guayana, Venezuela and its affiliates in the Central region. Those industries have been promoted collective management. The Argentine approach was carried out through visits, interviews, meetings and gatherings. The workshops held in Venezuela, in a dialogue of knowledge context, facilitated the emergence of tools for the systematization of their own experience (‘generating questions’, ‘My history with technology’, ‘Learning Log’). The relation with Argentine peers has generated a network that creates opportunities of knowledge and experience construction and its nucleation for both, workers and researchers. The cases studied relating to Argentine workers’ recuperated enterprises show a participatory process marked by autonomy in the management of the factory, given the circumstances that led them to take it in order to maintain their jobs. From these cases emerged categories associated with management aspects about technical-technology process, such as participation in planning, design or implementation of the improvement. Participation, in general, is associated with assemblies, joined to the practices of self-management decision-making as an expression of a high participation. The Cooperative General Assembly, as the highest instance of participation, and the Board of Directors are the prevalent forms of participation. In relation to learning, Argentine workers’ recuperated enterprises provided categories of great significance to the process of socialization of knowledge: collective knowledge and knowledge cooperation, recovery of knowledge and training workers for replacement. Based on categories arising from the Argentine experience, theoretical framework and the interest of the Venezuelan workers the assessment of both, their degree of participation on technical improvements and the associated technological learning were made considering a fuzzy approach, given the ambiguous nature of these categories that were worked as sets rather than variables. It was found that participation is configured as a subset of learning to contribute to its strengthening. The conditions and relations to strengthen participation in technology issues emerged from the systematization and synthesis of both experiences (Venezuela and Argentina) combining a structure which provides training for the nucleation of collectives of knowledge (improvement projects or innovations), affinity networks, systematization of their own expertise and institutional links. These results show the integration of the interests of stakeholders (workers, researchers, institutions) through strategies like meetings, systematization of their own methods, forming ‘collectives of technological knowledge’ and a participative action research network in this industry (Industrial PAR) considering the ‘research drift’, under their own practical-theoretical discourses positioned as a possibility of their participation in technological activities in their respective organizations, opening an opportunity for scaling to other areas and sectors.
Resumo:
El extenso legado edificado que constituyen las construcciones históricas de fábrica de adobe distribuidas por toda la península encuentra en la región de Aveiro (Portugal) su máxima expresión, tanto desde el punto de vista cuantitativo, un 30% de los edificios existentes en la región, como tipológico, compuesto por un amplio conjunto de diferentes construcciones (edificios residenciales, edificios militares, iglesias, escuelas, teatros, naves industriales, etc.), muchos de los cuales de reconocido valor histórico, arquitectónico y patrimonial. Tras la gradual desaparición del empleo de la fábrica de adobe como técnica constructiva, durante la segunda mitad del siglo XX, la necesaria conservación y/o rehabilitación de los edificios remanentes no se ha tenido en cuenta. Como consecuencia de esta actitud generalizada de pasividad continuada, se verifica el estado actual de deterioro y de daño acusado que presentan una gran parte de estas construcciones, del cual ha resultado el panorama presente de abandono y ruina en el que se encuentran muchas de ellas. Por regla general, la solución adoptada para afrontar el estado actual de los edificios en estas condiciones suele ser la demolición. No obstante lo anterior, en los últimos años, se viene produciendo en el seno de los diferentes agentes que intervienen en la toma de decisiones sobre estos edificios un interés creciente en su preservación, promoviendo la rehabilitación de los mismos. Empieza de este modo a cobrar importancia la necesidad de desarrollar estrategias de intervención que posibiliten alargar la vida útil de estas estructuras, permitiendo, por un lado, establecer metodologías de análisis de sus condiciones de seguridad, que posibiliten determinar las medidas de actuación necesarias para el aseguramiento de las mismas frente a las acciones existentes y, en su caso, a la incorporación de nuevas solicitaciones debidas a cambios de uso o ampliaciones, así como, dando respuesta a los principales mecanismo de daño a los que se encuentran sujetas. Tratándose de estructuras que fueron construidas utilizando técnicas y materiales escasamente estudiados y entre tanto abandonados, se hace también necesario, y con carácter previo a lo anterior, acometer un estudio e investigación multidisciplinares que permitan su caracterización y comprensión, y la par establecer un diagnóstico sobre los principales agentes y procesos patológicos que promueven el deterioro de las mismas. En este contexto, el estudio llevado a cabo tuvo como objetivos ampliar el conocimiento e investigación acerca de las propiedades y parámetros resistentes de las fábricas históricas de adobe, así como, analizar los principales mecanismos de daño asociados a las mismas, a la luz del el estado actual de estas construcciones, y su repercusión en el comportamiento resistente de las fábricas –con especial énfasis para la influencia del agua–. De este modo, se pretendió construir una base de resultados que, por un lado, pueda servir de soporte a intervenciones de rehabilitación y/o consolidación de estas estructuras – permitiendo de forma ágil y a partir de datos y recursos de cálculo expeditos la evaluación de los niveles de seguridad en las fábricas–, y por otro, el estudio de soluciones de mejora o corrección de deficiencias en su comportamiento estructural. The vast edified legacy composed of the historical adobe load-bearing walls which can be found spread all over the Iberian peninsula has, in the region of Aveiro (Portugal), its maximum expression, both from a quantitative point of view (around 30% of the local construction) and a typological point of view, including a considerable number of different types of constructions (residential buildings, military buildings, churches, industrial buildings, etc.), most of which have a recognized high historical, architectural and patrimonial value. The conservation and/or rehabilitation of many of these edifications has been neglected, since its gradual abandonment as constructive technique during the second half of the 20th century. As a consequence of this posture of general passivity, it is nowadays visible the state of pronounced damage manifested by great part of these constructions, which has been leading to their abandonment and state of ruin. In most cases, the option for demolition has been the solution found to face the actual state of these constructions. However, in recent years, a growing interest in the preservation and maintenance of the adobe constructions has become visible by the envolved parties, with the obvious consequence of rehabilitation. By so, it becomes mandatory to develop strategies of intervention that, through rehabilitation, are able to extend the useful life of the existing structures, allowing on one hand, to establish methodologies to analyze their safety state and determine the actions needed to ensure their protection against existing pressures and, when applicable, the occurrence of new demands due to changes of use or extensions, and on the other hand, to give response to the main damage mechanisms to which these structures are exposed. Because these structures were built using not very well know techniques and materials, which have been, in the meantime, abandoned, it is now crucial that these are object of a previous phase of study and multidisciplinary investigation, essential not only to their characterization and comprehension, but also to the diagnosis of the main pathological processes that affect them. In this context, the present study had as main goal to develop the analysis and knowledge regarding the properties and resistant parameters of the adobe masonry as well as bringing to the light of day the actual state of the existing adobe constructions, making evident the main damage mechanisms by which they are affected and analyzing, through their occurrence, the vulnerability of the mentioned properties and resistant parameters. By so, it was objective of the present study the development of a result database which on one hand, supports the execution of rehabilitation interventions and/or strengthening of these constructions and, on other hand, allows the development of improvement solutions in the mechanical characteristics of the adobe masonry which permit corrections of deficiencies in their structural behavior with a special emphasis on the influence of water. Thus, a database of results was developed. Its goal is, on one hand, to support the rehabilitation or consolidation interventions on these structures - allowing for a quick analysis of the safety state of the adobe walls from expedite data and calculus resources and, on the other hand, to study improvement or correction solutions of their structural behavior.
Resumo:
La participación de los jóvenes en los procesos de planificación urbana en Lisboa, Madrid y Fortaleza ha sido tema central de la presente tesis. Los principales objetivos perseguidos consisten en: caracterizar y analizar críticamente las dimensiones más importantes de la participación de jóvenes universitarios en los procesos participativos; aportar características de interés juvenil para un “modelo” de planificación urbana; elaborar directrices para el diseño de actuaciones en un proceso urbano participativo desde la perspectiva de los jóvenes; establecer el alcance de un instrumento urbano participativo reglamentado por el gobierno local entre los jóvenes; determinar si la percepción de los jóvenes universitarios acerca de las acciones del gobierno local tiene influencia en los procesos participativos. El universo estadístico de la muestra lo conforman la totalidad de 737 jóvenes universitarios encuestados en Lisboa, Madrid y Fortaleza. Que se distribuye en 104 encuestados en Lisboa, 329 en Madrid, y 304 en la ciudad de Fortaleza. El cuestionario contiene preguntas: abiertas, cerradas y mixtas. La mayor parte de las cuestiones son cerradas, y en cuanto a las opciones de respuesta: en muchas preguntas se ha aplicado, una escala tipo Likert, entre 1 y 4, siendo 4 el grado más alto (totalmente de acuerdo), y 1 el grado más bajo (nada de acuerdo), y para otras, una opción múltiple, con solamente una opción de respuesta. Se realizó un cuestionario de 31 preguntas en Lisboa, y tras su aplicación y obtención de resultados se revisó y mejoró obteniendo un cuestionario de 23 preguntas que fue aplicado en Madrid y Fortaleza. Se realizan análisis descriptivos, y algún análisis factorial en diversas preguntas del cuestionario, y se estudian diferencias en función de las variables sociodemográficas planteadas. Los resultados constatan que es muy baja la participación en los procesos institucionalizados por el gobierno local, en contrapartida es bastante alta en los procesos organizados por los ciudadanos. La información limita la participación de los jóvenes y ya que estos reconocen como motivación estar más y mejor informados y controlar y acompañar las acciones de su gobierno local. Por otra parte, desean participar en grupo en foros y debates presenciales. Los jóvenes madrileños consideran que las etapas más importantes en un proceso urbano participativo son: información, seguimiento y evaluación, mientras que para los jóvenes de Fortaleza son: Fiscalización, concienciación e información. Se ha verificado que desde la percepción de los jóvenes de Lisboa los ciudadanos son consultados en los procesos urbanos participativos y de acuerdo con los jóvenes de Madrid y Fortaleza los ciudadanos son dirigidos, influenciados y manipulados. Los problemas de carácter urbano no tienen una conceptualización clara y precisa entre los jóvenes universitarios y los problemas urbanos que más afectan la vida de los jóvenes universitarios son aparcamientos, contaminación y seguridad urbana. Sin embargo, los transportes son apuntados por los jóvenes universitarios de Lisboa, Madrid y Fortaleza. Además no saben identificar los problemas de su barrio. Así como de las causas y consecuencias y soluciones de los problemas urbanos. Eligen como mejor estrategia para desarrollar un proceso urbano participativo el acuerdo entre técnicos, población y el gobierno local. Los jóvenes universitarios de Fortaleza apuntan directrices para una planificación urbana con énfasis en la seguridad urbana, la sostenibilidad y la investigación, tecnología e innovación. Por otro lado, los jóvenes universitarios de Madrid perfilan tres “modelos” de planificación urbana: un “Modelo” socio-económica, un “Modelo” sostenible e innovadora y un “Modelo” de Planificación Urbana con énfasis en espacios públicos, entretenimiento, seguridad urbana y deporte. Los jóvenes universitarios rechazan la idea que la planificación urbana lleva en cuenta sus perspectivas y opiniones. Respeto al Presupuesto Participativo, el alcance de dicho proceso entre los jóvenes universitarios es extremamente bajo. Sin embargo, opinan que la aproximación entre ciudadanos, técnicos y gobierno en los procesos de Presupuesto Participativo mejora la rendición de cuentas. Además los jóvenes creen que dichos procesos conceden un poder moderado a los ciudadanos, y consideran que el poder concedido en los procesos urbanos influye directamente en el interés y empeño en participar. ABSTRACT Youth participation in urban planning processes in Lisbon, Madrid and Fortaleza is the main subject of this thesis. Our key goals are the following: characterising and critically analysing the most important dimensions of young university students’ participation in participative processes; providing features of interest for the young for an urban planning “model”; developing a variety of guidelines for designing actions in a participative urban process from the perspective of young people; analysing the impact upon the young of a participative urban instrument implemented by the local government; determining whether young university students’ perception of local government actions influences participative processes. The statistical universe of the sample comprises a total of 737 young university students who were surveyed in Lisbon, Madrid and Fortaleza, distributed as follows: 104 respondents in Lisbon, 329 in Madrid, and 304 in Fortaleza. The survey is made up of open-ended, closed-ended and mixed questions. Most questions are closed-ended. Regarding the answer options, a Likert-type scale has been used in many questions. The scale ranges from 1 to 4, 4 being the highest value (completely agree) and 1 the lowest (completely disagree). Besides, there are multiple-choice questions with only one possible answer. A 31- question survey was conducted in Lisbon. After the survey was run and the results were obtained, it was reviewed and improved. The improved version was a 23- question survey which was conducted in Madrid and Fortaleza. Descriptive analyses as well as some factorial analyses are carried out in several questions, and differences are studied depending on the socio-demographic variables involved. The results show that participation in processes implemented by local governments is very low. In contrast, participation is quite high in processes organised by citizens. Information limits youth participation, as young people point out that they are motivated by more and better information and by the possibility of monitoring and keeping track of their local government actions. They also wish to take part in face-to-face group forums and discussions. Young people from Madrid think that the most important stages in participative urban processes are information, follow-up and assessment, whereas young people from Fortaleza highlight tax matters, awareness and information. It has been confirmed that Lisbon youth perceive that citizens are consulted in participative urban processes. Youth from Madrid and Fortaleza, on the other hand, state that citizens are directed, influenced and manipulated. Young university students do not have a clear, precise concept of urban problems. Among these, they are most affected by car parks, pollution and urban safety, but the transport problem is pointed out by young university students from Lisbon, Madrid and Fortaleza. Furthermore, they cannot identify the problems in their neighbourhoods, nor are they able to specify the causes, consequences and solutions of urban problems. Their preferred strategy for developing a participative urban process is an agreement between technicians, the population and the local government. Young university students from Fortaleza suggest guidelines for an urban planning approach emphasising urban safety, sustainability and research, technology and innovation. Those from Madrid, for their part, outline three urban planning “models”: a socioeconomic “model”, a sustainable and innovative “model”, and an urban planning “model” with a focus on public areas, entertainment, urban safety and sport. Young university students disagree that urban planning takes their perspectives and views into account. Moreover, the impact of the Participative Budget upon their lives is extremely low. In their opinion, however, closer collaboration between citizens, technicians and governments in Participative Budget processes promotes accountability. The young also think that these processes give moderate power to citizens, and in their view the power that can be exerted in urban processes directly influences the interest in participating and the will to do so.
Resumo:
La Comunidad de Madrid ha tenido un pasado minero importante que ha dejado su vestigio en el territorio. Actualmente la explotación de minerales no metálicos y de rocas industriales y ornamentales continúa, pero no así la de la minería metálica que en el pasado fue abundante. Hoy en día todas estas minas están abandonadas, dando lugar a zonas degradadas con un elevado riesgo para la seguridad de las personas y de los animales terrestres que habitan por sus inmediaciones, y necesitan ser intervenidas atendiendo, además, a su integración o recuperación ecológica y paisajística en el territorio. El principal propósito de esta tesis es conocer la situación actual que presentan las minas abandonadas de metales y proponer unos modelos de actuación para la rehabilitación e integración de los espacios mineros abandonados de la Comunidad de Madrid, cuya ventaja también estriba en su posible extrapolación a otras aéreas de gestión con una problemática similar. Partiendo de una selección de cincuenta y siete minas de interior metálicas abandonadas, se ha hecho un diagnostico en función de su seguridad (riesgo), interés cultural, arqueológico e histórico y por su afección a espacios protegidos, resultando que en todas, excepto en tres de ellas, es preciso llevar a cabo medidas protectoras y de restauración e integración en el medio ambiente. El conjunto de minas catalogadas de alto riesgo para la seguridad son veintitrés, y sobre ellas se ha realizado un Análisis Clúster, en el que además de los criterios de gestión formulados: seguridad, protección del patrimonio minero-industrial e integración ecológico-paisajística, se han incorporado otros modificadores como distancia a poblaciones, caminos, pistas y vías pecuarias, y accesibilidad. Con los resultados de este análisis se obtienen una clasificación por grupos de las minas en relación con las características intrínsecas de las explotaciones preseleccionadas y la tipología de problemas que presentan, y a partir de ella se plantean soluciones viables que se concretan en la redacción de una serie de anteproyectos tipo. Una de las principales aportaciones es que se trata de un modelo de inventariocaracterización- actuación extrapolable a otros entornos similares con problemáticas parecidas. Las propuestas de actuación que figuran en los anteproyectos tipo se proponen como medidas aplicables en situaciones similares. La tesis además también incorpora una base de datos georreferenciada que permite la localización de las explotaciones mineras abandonadas, el acceso rápido a sus características y a la propuesta de restauración correspondiente. ABSTRACT The Community of Madrid had an important mining past that left its traces in the territory. Currently the explotation of non-metallic minerals and industrial and ornamental rocks continues, but not so much with the metal deposits that were abundant in the past. Today these mines are abandoned, resulting in degraded areas with a high risk to the safety of nearby people and animals that inhabit its vicinity, and they need to be intervened, by tending to their environment integration or ecological and landscape recovery. The main objective of this thesis is to know the current situation of abandoned metal mines and propose an action model for the rehabilitation and integration of abandoned mining areas of the Community of Madrid, whose advantage also is its possible extrapolation to other management areas with similar problems. From a selection of fifty-seven abandoned metal mines, a diagnosis has been made, based on safety (risk), cultural, archaeological and historical interests and how it can be related to protected areas, resulting that all but three of them need measures of protection, restoration and integration to the environment. The set of mines that are classified as a high security risk are twenty-three, and it has been made on them an Cluster Analysis, as in addition to the management formulated criteria, such as safety, protection of mining and industrial heritage and eco-landscape integration, it has been incorporated other modifying variables, such as distance to populations, roads, tracks and livestock paths, and accessibility. With the results of this analysis, a classification of similar groups of mines in relation with the intrinsic characteristics of the preselected mines and typology problems, and from it a set of viable solutions will be specified, being then drafted on a series of proposals. One of the main contributions of this research is that it consists of an inventorycharacterization- action model, which can be extrapolated to other similar environments with similar problems. The action measures that are contained in the proposals are defined as applicable to similar situations. The thesis also incorporates a geo-referenced database that allows finding the location of abandoned mines, thus giving quick access to its features and its corresponding restoration proposal.
Resumo:
El objetivo de esta tesis es el estudio de la respuesta estructural de los gasoductos sometidas a solicitaciones estáticas y dinámicas, enfocando prioritariamente en la respuesta sísmica. Los gasoductos, como las tuberías en general, se utilizan principalmente para la transportación de fluidos, como agua, gas o petróleo, de ahí la importancia de que el diseño y la estructura se realicen adecuadamente. La tubería debe ser capaz de soportar tanto los efectos de cargas estáticas como las debidas al peso propio o de la presión de la tierra, así como los diferentes tipos de cargas dinámicas ocurridas durante un evento sísmico, como los debidos a las ondas o el desplazamiento de fallas. En la primera parte de la tesis se describen aspectos generales de la tubería y su uso, y se da una breve historia de uso en la industria y las redes de abastecimiento urbano. Aparte de otros aspectos, se discuten las ventajas y desventajas de los diferentes materiales de las tuberías. En la segunda parte de la tesis se desarrollan las ecuaciones de equilibrio de una sección transversal de la tubería bajo cargas estáticas, tales como la presión interna, peso propio, presión de la tierra y las cargas externas. Un número de diferentes combinaciones de carga es analizado por medio de programas codificados como Matlab, los cuales se han desarrollado específicamente para este propósito. Los resultados se comparan con los obtenidos en Ansys utilizando un código de elementos finitos. En la tercera parte se presenta la respuesta dinámica de las tuberías, que abarca los efectos de las ondas y los desplazamientos de fallas. Se presentan las características relevantes del suelo como las velocidades de ondas, así como los métodos para estimar el desplazamiento máximo de las fallas. Un estudio paramétrico se emplea para ilustrar la influencia de estos parámetros en la respuesta estructural de la tubería. Con este fin se han utilizado dos métodos, el Pseudoestático y el Simplificado. En la última parte de la tesis son desarrollados los modelos de elementos finitos que permiten simular adecuadamente el comportamiento no lineal del suelo y la tubería. Los resultados se comparan con los obtenidos por un método simplificado utilizado con frecuencia que fue propuesto por Kennedy en 1977. Estudios paramétricos se presentan con el fin de examinar la validez de las hipótesis del método de Kennedy. La tesis concluye con recomendaciones que indican en qué casos los resultados obtenidos por el método de Kennedy son conservadores y cuando es preferible utilizar modelos de elementos finitos para estimar la respuesta de las tuberías durante los terremotos. ABSTRACT The subject of this thesis is the study of the structural response of pipelines subjected to static and dynamic loads with special attention to seismic design loads. Pipelines, as pipes in general, are used primarily for the transportation of fluids like water, gas or oil, hence the importance of an adequate design and structural behaviour. The pipe must be able to withstand both the effects of static loads like those due to self-weight or earth pressure as well as the different types of dynamic loads during a seismic event like those due to wave passing or fault displacements. In the first part of the thesis general aspects of pipelines and their use are described and a brief history of their usage in industry and for urban supply networks is given. Apart from other aspects, the advantages and disadvantages of different pipe materials are discussed. In the second part of the thesis the equilibrium equations of a transverse section of the pipe under static loads such as internal pressure, self-weight, earth pressure and external loads are developed. A number of different load combinations is analysed by means of programs coded in Matlab that have been specifically developed for this purpose. The results are compared to those obtained with the commercial Finite Element code Ansys. In the third part the dynamic response of pipelines during earthquakes is presented, covering the effects of passing waves and fault displacements. Relevant soil characteristics like wave propagation velocities as well as methods to estimate the maximum fault displacements are presented. A parametric study is employed to illustrate the influences of these parameters on the structural response of the pipe. To this end two methods have been used, the Pseudostatic and the Simplified method. In the last part of the thesis Finite Element models are developed which allow to adequately simulate the nonlinear behaviour of the soil and the pipe. The results are compared to those obtained by a frequently used simplified method which was proposed by Kennedy in 1977. Parametric studies are presented in order to examine the validity of the hypotheses Kennedys’ method is based on. The thesis concludes with recommendations indicating in which cases the results obtained by Kennedy’s method are conservative and when it is preferable to use Finite Element models to estimate the response of pipelines during earthquakes.
Resumo:
Recientemente, ha surgido un interés por aprender a programar, debido a las oportunidades profesionales que da este tipo de estudios universitarios. Es fácil de entender porque el número de trabajos para programadores e ingenieros informáticos está creciendo rápidamente. Por otro lado, un amplio grupo de psicólogos opinan que el pensamiento computacional es una destreza fundamental para cualquiera, no sólo para los ingenieros informáticos. Para leer, escribir y realizar operaciones aritméticas, deberíamos utilizar el pensamiento computacional y por lo tanto, para desarrollar todas las habilidades analíticas de los niños. Es necesario cambiar los requerimientos de las destrezas necesarias para trabajar, los nuevos trabajadores necesitarán destrezas más sofisticadas en ciencias, matemáticas, ingeniería y tecnología. Consecuentemente, los contenidos sobre Tecnología de la Información tales como electrónica, programación, robótica y control se incrementan en la educación tecnológica en enseñanza secundaria. El desarrollo y utilización de los Laboratorios Virtuales de Control y Robótica ayuda a alcanzar este objetivo. Nos vamos a centrar en control y robótica porque un proyecto de control y robótica incluye contenidos de otras tecnologías tales como electrónica, programación, … Se ha implementado un sitio web con Laboratorios Virtuales de Control y Robótica. En este trabajo, se muestran seis grupos de laboratorios virtuales para la enseñanza del control y la robótica a niveles preuniversitarios. Estos laboratorios virtuales han sido usados para la docencia de alumnos de enseñanza secundaria. Las estadísticas del proceso de enseñanza-aprendizaje permiten validar ciertos aspectos de dicho trabajo. Se describen dichos laboratorios y la mejora del aprendizaje en cuanto a conocimientos procedimentales y conceptuales, así como la mejora de la interactividad respecto al aprendizaje con análogas aplicaciones con objetivos de aprendizaje idénticos, pero careciendo de la componente de laboratorio virtual. Se explican algunas de las experiencias realizadas con los alumnos. Los resultados sugieren, que dentro de la educación tecnológica de la educación secundaria, los laboratorios virtuales pueden ser explotados como un efectivo y motivacional entorno de aprendizaje. ABSTRACT Recently, there has been a surge of interest in learning to code, focusing especially on career opportunities. It is easy to understand why: the number of jobs for programmers and computer scientists is growing rapidly. On the other hand, the psychologists think that computational thinking is a fundamental skill for everyone, not just for computer scientists. To reading, writing, and arithmetic, we should add computational thinking to every child’s analytical ability. It is necessary to change workforce requirements mean that new workers will need ever more sophisticated skills in science, mathematics, engineering and technology. Consequently, the contents about Information Technology as well as electronics, coding, robotics and control increase in Technology Education in High School . The development and utilization of the Virtual Laboratories of Control and Robotics help to achieve this goal. We focus on control and robotics because a control and robotics project includes other technologies contents like electronics, coding,... A web site with Virtual Laboratories of Control and Robotics was implemented. In this work, six groups of virtual laboratories for teaching control and robotics in preuniversity level are shown. These Virtual Laboratories were used for teaching students at high school. The statistics of teaching-learning process allow to check some issues of this work. The laboratories, the improvement of learning (concepts and procedures) and interactivity are described and are compared to similar applications. They share identical learning objectives but they lack the virtual laboratory aspect. Some experiences with students are explained too. The results suggest that within high school technology education, virtual laboratories can be exploited as effective and motivational learning environments.
Resumo:
Esta tesis se centra en el estudio de una secuencia de procesos basados en la tecnología láser y ejecutados en dispositivos fotovoltaicos, que son imprescindibles para el desarrollo en general de las tecnologías fotovoltaicas basadas en lámina delgada y, en particular, de aquellas que utilizan silicio amorfo como absorbente, así como en aplicaciones posteriores de estas tecnologías de alto valor añadido como es la integración arquitectónica de este tipo de dispositivos. En gran parte de las tecnologías FV de lámina delgada, y muy particularmente en la de silicio amorfo, el material se deposita sobre un substrato en un área lo suficientemente grande para que se requiera de un proceso de subdivisión del dispositivo en células de tamaño adecuado, y su posterior conexión en serie para garantizar las figuras eléctricas nominales del dispositivo. Este proceso se ha desarrollado industrialmente hace años, pero no ha habido un esfuerzo científico asociado que permitiera conocer en profundidad los efectos que los procesos en si mismos tiene de forma individualizada sobre los materiales que componen el dispositivo y sus características finales. Este trabajo, desarrollado durante años en el Centro Láser de la UPM, en estrecha colaboración con Centro de Investigaciones Energéticas y Medioambientales (CIEMAT), la Universidad de Barcelona (UB), y la Universidad Politécnica de Cataluña (UPC), se centra justamente en un estudio detallado de dichos procesos, denominados habitualmente P1, P2, P3 y P4 atendiendo al orden en el que se realizan en el dispositivo. Este estudio incluye tanto la parametrización de los procesos, el análisis del efecto que los mismos producen sobre los materiales que componen el dispositivo y su comportamiento fotoeléctrico final, así como la evaluación del potencial uso de fuentes láser de última generación (ultrarrápidas) frente al estándar industrial en la actualidad que es el empleo de fuentes láser convencionales de ancho temporal en el rango de los nanosegundos. En concreto se ha estudiado en detalle las ventajas y limitaciones del uso de sistemas con diferentes rangos espectrales (IR, VIS y UV) y temporales (nanosegundos y picosegundos) para diferentes tipos de configuraciones y disposiciones tecnológicas (entendiendo por estas las habituales configuraciones en substrato y superestrato de este tipo de dispositivos). La caracterización individual de los procesos fue realizada primeramente en células de laboratorio específicamente diseñadas, abriendo nuevos planteamientos y conceptos originales para la mejora de los procesos láser de interconexión y posibilitando el empleo y desarrollo de técnicas y métodos avanzados de caracterización para el estudio de los procesos de ablación en las distintas láminas que conforman la estructura de los dispositivos fotovoltaicos, por lo que se considera que este trabajo ha propuesto una metodología completamente original, y que se ha demostrado efectiva, en este ámbito. Por último el trabajo aborda un tema de particular interés, como es el posible uso de los procesos desarrollados, no para construir los módulos fotovoltaicos en sí, sino para personalizarlos en forma y efectos visuales para potenciar su uso mediante elementos integrables arquitectónicamente, lo que es un ámbito de gran potencial de desarrollo futuro de las tecnologías fotovoltaicas de lámina delgada. En concreto se presentan estudios de fabricación de dispositivos integrables arquitectónicamente y plenamente funcionales no solo en dispositivos de silicio amorfo con efectos de transparencias y generación de formas libres, si no que también se incluye la posibilidad de hacer tales dispositivos con células de silicio cristalino estándar que es la tecnología fotovoltaica de mayor presencia en mercado. Es importante, además, resaltar que la realización de este trabajo ha sido posible gracias a la financiación obtenida con dos proyectos de investigación aplicada, MICROSIL (PSE-120000-2008-1) e INNDISOL (IPT-420000-2019-6), y los correspondientes al Plan Nacional de I+D+I financiados por el ministerio de Ciencia e Innovación y el Ministerio de Economía y Competitividad: CLÁSICO (ENE 2007- 67742-C04-04) y AMIC ENE2010-21384-C04-02. De hecho, y en el marco de estos proyectos, los resultados de este trabajo han ayudado a conseguir algunos de los hitos más importantes de la tecnología fotovoltaica en nuestro país en los últimos años, como fue en el marco de MICROSIL la fabricación del primer módulo de silicio amorfo con tecnología íntegramente española (hecho en colaboración con el CIEMAT), o la fabricación de los dispositivos para integración arquitectónica con geometrías libres que se describen en esta Tesis y que fueron parte de los desarrollos del proyecto INNDISOL. ABSTRACT This thesis focuses on the study of a sequence of laser-based technology and processes executed in photovoltaic devices, which are essential for the overall development of photovoltaic technologies based on thin film and, in particular, those using amorphous silicon as absorbent and subsequent applications of these technologies with high added value such as the architectural integration of such devices. In much of the PV thin film technologies, and particularly in the amorphous silicon material is deposited on a substrate in an area large enough so that it requires a process of subdivision of the device in cells of appropriate size, and subsequent serial connection to ensure nominal device power figures. This process has been industrially developed years ago, but there has been an associate scientific effort that would learn more about the effects that the processes themselves have either individually on the materials that make up the device and its final characteristics. This work, developed over years in the Laser Center of the UPM, in close collaboration with Centre for Energy and Environmental Research (CIEMAT), the University of Barcelona (UB) and the Polytechnic University of Catalonia (UPC)., Focuses precisely in a detailed study of these processes, usually they called P1, P2, P3 and P4 according to the order in which they perform on the device. This study includes both the parameters of the processes, the analysis of the effect they produce on the materials making up the device and its final photoelectric behavior as well as the potential use of EVALUATION of next-generation laser sources (ultrafast) versus standard industry today is the use of conventional laser sources temporal width in the range of nanoseconds. In particular we have studied in detail the advantages and limitations of using systems with different spectral ranges (IR, UV and VIS) and time (nanosecond and picosecond) for different configurations and technological provisions (meaning these typical configurations in substrate and superstrate such devices). Individual characterization of the processes was conducted primarily in laboratory cells specifically designed, opening new approaches and original concepts for improving laser interconnection processes and enabling the use and development of advanced techniques and characterization methods for studying the processes ablation in the different sheets making up the structure of the photovoltaic devices, so it is considered that this work has proposed a completely original methodology, which has proven effective in this area. Finally, the paper addresses a topic of particular interest, as is the possible use of lso developed processes, not to build the photovoltaic modules themselves but to customize fit and visual effects to enhance their use by integrated architectural elements, which is an area of great potential for future development of thin film photovoltaic technologies. Specifically studies manufacture of integrated architecturally and fully functional not only in amorphous silicon devices with transparency effects and generating freeform devices occur, if not also include the ability to make such devices with cells of standard crystalline silicon photovoltaic technology is more visible in the market. It is also important to note that the completion of this work has been possible thanks to the financing obtained with two applied research projects, Microsil (PSE-120000- 2008-1) and INNDISOL (IPT-420000-2019-6), and those for the National R & D funded by the Ministry of Science and Innovation and the Ministry of Economy and Competitiveness: CLASSIC (ENE 2007-67742-C04-04) and AMIC ENE2010-21384-C04- 02. In fact, within the framework of these projects, the results of this work have helped get some of the most important milestones of photovoltaic technology in our country in recent years, as it was under Microsil making the first module Amorphous silicon technology with entirely Spanish (made in collaboration with CIEMAT), or the manufacture of devices for architectural integration with free geometries that are described in this thesis and that were part of the project Inndisol developments.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
En la actualidad se está desarrollando la electrónica para el diseño de sistemas de conversión de potencia de alta frecuencia, que reduce notablemente el peso y el ruido de los dispositivos convertidores y aumenta a su vez la densidad de potencia sin afectar negativamente al rendimiento, coste o fiabilidad de dichos dispositivos. La disciplina que se encarga de investigar y crear estos sistemas es la electrónica de potencia. Este documento recoge la metodología empleada para el diseño, análisis y simulación de un convertidor DC/DC de 10 kW de aplicación aeronáutica. Este dispositivo forma parte de un proyecto en el que colaboran el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI - UPM) y las empresas Indra y Airbus. Su objetivo es el diseño y construcción de un rectificador trifásico que proporcione una salida continua de 28 V y 10 kW de potencia. Durante su aplicación final, se dispondrá de dos dispositivos idénticos al diseñado en este proyecto, aportando cada uno de ellos 5 kW, sin embargo, debido a la importancia en seguridad en las aplicaciones aeronáuticas, cada rectificador debe ser capaz de aportar 10 kW de potencia en caso de fallo en uno de ellos. En primer lugar, este trabajo explica el diseño elegido para dicho convertidor, que sigue una topología Dual Active Bridge (DAB), en creciente interés para el desarrollo de dispositivos de potencia en alta frecuencia por sus mejoras en eficiencia y densidad de potencia. Esta topología consiste en dos puentes completos de dispositivos de conmutación, en este caso MOSFET, con un transformador entre medias diseñado para proporcionar la tensión de salida deseada. La topología ha sido modificada para satisfacer especificaciones del proyecto y cumplir las expectativas del diseño preliminar, que se centra en la transición suave de corriente en el transformador, siendo clave el diseño de un filtro resonante en serie con el transformador que proporciona una corriente senoidal con valor nulo en los instantes de conmutación de los MOSFET. Una vez introducida la topología, el siguiente capítulo se centra en el procedimiento de selección de componentes internos del convertidor: destacando el análisis de condensadores y MOSFET. Para su selección, se han estudiado las exigencias eléctricas en los puntos en los que estarán instalados, conociendo así las tensiones y corrientes que deberán soportar. Para asegurar un diseño seguro, los componentes han sido seleccionados de forma que durante su funcionamiento se les exija como máximo el 70% de sus capacidades eléctricas y físicas. Además, a partir de los datos aportados por los fabricantes ha sido posible estimar las pérdidas durante su funcionamiento. Este proyecto tiene un enfoque de aplicación aeronáutica, lo que exige un diseño robusto y seguro, que debe garantizar una detección rápida de fallos, de modo que sea capaz de aislar la anomalía de forma eficaz y no se propague a otros componentes del dispositivo. Para asegurarlo, se ha realizado la selección de sensores de tensión y corriente, que permiten la detección de fallos y la monitorización del convertidor. Al final de este apartado se muestra el esquema de alimentación, se analiza el consumo de los MOSFET y los sensores y se recopilan las pérdidas estimadas por los componentes internos del convertidor. Una vez terminado el diseño y selección de componentes, se muestran las simulaciones realizadas para prever el comportamiento del convertidor. Se presenta el modelo construido y las modificaciones instaladas para las diferentes simulaciones. Se destacan el diseño del regulador que introduce la entrada de corriente del convertidor para analizar su arranque, la construcción de una máquina de estados para analizar la detección de tensiones y corrientes fuera del intervalo correspondiente del correcto funcionamiento, y el modelo de MOSFET para simular los fallos posibles en estos dispositivos. También se analiza la influencia de la oscilación de la carga en los valores de tensión y en la resonancia del convertidor. Tras la simulación del equipo se describen las pruebas realizadas en los componentes magnéticos construidos dentro del periodo de elaboración de este trabajo: el transformador y la bobina externa, diseñada para mejorar el filtro resonante. La etapa final de este trabajo se ha centrado en la elaboración de un código de generación de señales PWM que controlen el funcionamiento de los MOSFET. Para esto se ha programado una tarjeta de control del procesador digital de señales (DSP)Delfino (TMS320F28335) instalado en una placa de experimentación (TMS320C2000), desarrollado por la empresa Texas Instruments, que facilita el acceso a los terminales GPIO y ADC del DSP durante el desarrollo del código, anexo a este documento.
Resumo:
La seguridad y fiabilidad de los procesos industriales son la principal preocupación de los ingenieros encargados de las plantas industriales. Por lo tanto, desde un punto de vista económico, el objetivo principal es reducir el costo del mantenimiento, el tiempo de inactividad y las pérdidas causadas por los fallos. Por otra parte, la seguridad de los operadores, que afecta a los aspectos sociales y económicos, es el factor más relevante a considerar en cualquier sistema Debido a esto, el diagnóstico de fallos se ha convertido en un foco importante de interés para los investigadores de todo el mundo e ingenieros en la industria. Los principales trabajos enfocados en detección de fallos se basan en modelos de los procesos. Existen diferentes técnicas para el modelado de procesos industriales tales como máquinas de estado, árboles de decisión y Redes de Petri (RdP). Por lo tanto, esta tesis se centra en el modelado de procesos utilizando redes de petri interpretadas. Redes de Petri es una herramienta usada en el modelado gráfico y matemático con la habilidad para describir información de los sistemas de una manera concurrente, paralela, asincrona, distribuida y no determinística o estocástica. RdP son también una herramienta de comunicación visual gráfica útil como lo son las cartas de flujo o diagramas de bloques. Adicionalmente, las marcas de las RdP simulan la dinámica y concurrencia de los sistemas. Finalmente, ellas tienen la capacidad de definir ecuaciones de estado específicas, ecuaciones algebraicas y otros modelos que representan el comportamiento común de los sistemas. Entre los diferentes tipos de redes de petri (Interpretadas, Coloreadas, etc.), este trabajo de investigación trata con redes de petri interpretadas principalmente debido a características tales como sincronización, lugares temporizados, aparte de su capacidad para procesamiento de datos. Esta investigación comienza con el proceso para diseñar y construir el modelo y diagnosticador para detectar fallos definitivos, posteriormente, la dinámica temporal fue adicionada para detectar fallos intermitentes. Dos procesos industriales, concretamente un HVAC (Calefacción, Ventilación y Aire Acondicionado) y un Proceso de Envasado de Líquidos fueron usados como banco de pruebas para implementar la herramienta de diagnóstico de fallos (FD) creada. Finalmente, su capacidad de diagnóstico fue ampliada en orden a detectar fallos en sistemas híbridos. Finalmente, un pequeño helicóptero no tripulado fue elegido como ejemplo de sistema donde la seguridad es un desafío, y las técnicas de detección de fallos desarrolladas en esta tesis llevan a ser una herramienta valorada, desde que los accidentes de las aeronaves no tripuladas (UAVs) envuelven un alto costo económico y son la principal razón para introducir restricciones de volar sobre áreas pobladas. Así, este trabajo introduce un proceso sistemático para construir un Diagnosticador de Fallos del sistema mencionado basado en RdR Esta novedosa herramienta es capaz de detectar fallos definitivos e intermitentes. El trabajo realizado es discutido desde un punto de vista teórico y práctico. El procedimiento comienza con la división del sistema en subsistemas para seguido integrar en una RdP diagnosticadora global que es capaz de monitorear el sistema completo y mostrar las variables críticas al operador en orden a determinar la salud del UAV, para de esta manera prevenir accidentes. Un Sistema de Adquisición de Datos (DAQ) ha sido también diseñado para recoger datos durante los vuelos y alimentar la RdP diagnosticadora. Vuelos reales realizados bajo condiciones normales y de fallo han sido requeridos para llevar a cabo la configuración del diagnosticador y verificar su comportamiento. Vale la pena señalar que un alto riesgo fue asumido en la generación de fallos durante los vuelos, a pesar de eso esto permitió recoger datos básicos para desarrollar el diagnóstico de fallos, técnicas de aislamiento, protocolos de mantenimiento, modelos de comportamiento, etc. Finalmente, un resumen de la validación de resultados obtenidos durante las pruebas de vuelo es también incluido. Un extensivo uso de esta herramienta mejorará los protocolos de mantenimiento para UAVs (especialmente helicópteros) y permite establecer recomendaciones en regulaciones. El uso del diagnosticador usando redes de petri es considerado un novedoso enfoque. ABSTRACT Safety and reliability of industrial processes are the main concern of the engineers in charge of industrial plants. Thus, from an economic point of view, the main goal is to reduce the maintenance downtime cost and the losses caused by failures. Moreover, the safety of the operators, which affects to social and economic aspects, is the most relevant factor to consider in any system. Due to this, fault diagnosis has become a relevant focus of interest for worldwide researchers and engineers in the industry. The main works focused on failure detection are based on models of the processes. There are different techniques for modelling industrial processes such as state machines, decision trees and Petri Nets (PN). Thus, this Thesis is focused on modelling processes by using Interpreted Petri Nets. Petri Nets is a tool used in the graphic and mathematical modelling with ability to describe information of the systems in a concurrent, parallel, asynchronous, distributed and not deterministic or stochastic manner. PNs are also useful graphical visual communication tools as flow chart or block diagram. Additionally, the marks of the PN simulate the dynamics and concurrence of the systems. Finally, they are able to define specific state equations, algebraic equations and other models that represent the common behaviour of systems. Among the different types of PN (Interpreted, Coloured, etc.), this research work deals with the interpreted Petri Nets mainly due to features such as synchronization capabilities, timed places, apart from their capability for processing data. This Research begins with the process for designing and building the model and diagnoser to detect permanent faults, subsequently, the temporal dynamic was added for detecting intermittent faults. Two industrial processes, namely HVAC (Heating, Ventilation and Air Condition) and Liquids Packaging Process were used as testbed for implementing the Fault Diagnosis (FD) tool created. Finally, its diagnostic capability was enhanced in order to detect faults in hybrid systems. Finally, a small unmanned helicopter was chosen as example of system where safety is a challenge and fault detection techniques developed in this Thesis turn out to be a valuable tool since UAVs accidents involve high economic cost and are the main reason for setting restrictions to fly over populated areas. Thus, this work introduces a systematic process for building a Fault Diagnoser of the mentioned system based on Petri Nets. This novel tool is able to detect both intermittent and permanent faults. The work carried out is discussed from theoretical and practical point of view. The procedure begins with a division of the system into subsystems for further integration into a global PN diagnoser that is able to monitor the whole system and show critical variables to the operator in order to determine the UAV health, preventing accidents in this manner. A Data Acquisition System (DAQ) has been also designed for collecting data during the flights and feed PN Diagnoser. Real flights carried out under nominal and failure conditions have been required to perform the diagnoser setup and verify its performance. It is worth noting that a high risk was assumed in the generation of faults during the flights, nevertheless this allowed collecting basic data so as to develop fault diagnosis, isolations techniques, maintenance protocols, behaviour models, etc. Finally, a summary of the validation results obtained during real flight tests is also included. An extensive use of this tool will improve preventive maintenance protocols for UAVs (especially helicopters) and allow establishing recommendations in regulations. The use of the diagnoser by using Petri Nets is considered as novel approach.