931 resultados para ANÁLISIS DE SISTEMAS
Resumo:
En el planteamiento de la tesis se desarrolla una metodología para la construcción de la paleta cromática representativa de un espacio urbano. El objetivo principal es hallar una paleta representativa con la finalidad de determinar diferencias cromáticas entre ámbitos urbanos de época y composición urbana distinta. En el estado del arte se describe en primer lugar la teoría del color resaltando los factores que influyen en el proceso cromático perceptivo; en segundo lugar se hace un estudio clasificatorio de diferentes sistemas cromáticos y la teoría de la verbalidad del color y por último se hace un análisis del espacio público puntualizando en la relación entre la morfología y el factor cromático. Para la construcción de las paletas cromáticas se lleva a cabo un procesamiento informático de fotografías digitales con una aplicación que ha sido creada específicamente para la extracción y conversión de valores cromáticos y un proceso de filtrado con cálculo estadístico para la elección de las muestras. En el análisis también se establece una relación entre los factores urbanos y la resultante cromática, como instrumento para determinar las correspondencias de ciertas características urbanas con el comportamiento cromático. La resultante cromática de cada espacio se establece mediante el sistema cromático HSL y su composición es valorada y comparada entre los diferentes puntos de análisis establecidos y las diferentes orientaciones. Finalmente, en base a las paletas cromáticas se plantea una comparativa entre espacios urbanos de la ciudad de Madrid con la finalidad de establecer diferencias cromáticas entre planteamientos urbanos de distinta índole morfológica y constructiva. ABSTRACT In the approach of the thesis is developed a methodology for the construction of a representative palette of urban space. The main objective is to find a representative palette in order to determine color differences between urban areas of different age and urban composition. In the prior art is described first color theory highlighting the factors that influencing the perceptual color process; in second it is a qualifying study of various color systems and the theory of color verbality and finally is an analysis of public space pointing in the relationship between morphology and the color factor. For the construction of the color palette is carried out computer processing of digital photos in an application that has been created specifically for the extraction and conversion of color values and a filtering process with statistical calculation for the election of the samples. In analyzing a relationship between urban factors and the resulting color as an instrument is also set to determine the correlation of certain urban characteristics with the color behavior. The resulting color of each space is set by the HSL color system and its composition is evaluated and compared between the different established points of analysis and different orientations. Finally, based on the color palettes, arises a comparison between urban spaces in the city of Madrid with the aim of establishing color differences between urban approaches of different morphological and constructive nature.
Resumo:
Una célula TEM es un sistema concebido para conseguir en una determinada zona del espacio un campo electromagnético de forma controlada cuyo comportamiento tienda lo más posible al de una onda plana, aprovechando para ello ciertas propiedades asociadas al modo TEM. En este proyecto se analizan, desde el punto de vista electromagnnético, algunos tipos de células TEM. Tras una breve descripción de las diferentes geometrías que éstas pueden tomar y de las aplicaciones asociadas a las mismas, se estudian algunas de las técnicas de ajuste de campo (Resonancia Transversal y Ajuste Modal) con el fin de obtener los conocimientos necesarios para implementar una herramienta computacional que permita la determinación electromagnética completa "Full-Wave"del problema planteado. Una vez desarrollada, se emplearán los resultados derivados de la misma para analizar ciertos fenómenos que se producen en este tipo de sistemas y que nos aportará un conocimiento profundo sobre los mismos con vista a concebir estrategias de diseño que permitan optimizar su funcionamiento.
Resumo:
La presente Tesis investiga el campo del reconocimiento automático de imágenes mediante ordenador aplicado al análisis de imágenes médicas en mamografía digital. Hay un interés por desarrollar sistemas de aprendizaje que asistan a los radiólogos en el reconocimiento de las microcalcificaciones para apoyarles en los programas de cribado y prevención del cáncer de mama. Para ello el análisis de las microcalcificaciones se ha revelado como técnica clave de diagnóstico precoz, pero sin embargo el diseño de sistemas automáticos para reconocerlas es complejo por la variabilidad y condiciones de las imágenes mamográficas. En este trabajo se analizan los planteamientos teóricos de diseño de sistemas de reconocimiento de imágenes, con énfasis en los problemas específicos de detección y clasificación de microcalcificaciones. Se ha realizado un estudio que incluye desde las técnicas de operadores morfológicos, redes neuronales, máquinas de vectores soporte, hasta las más recientes de aprendizaje profundo mediante redes neuronales convolucionales, contemplando la importancia de los conceptos de escala y jerarquía a la hora del diseño y sus implicaciones en la búsqueda de la arquitectura de conexiones y capas de la red. Con estos fundamentos teóricos y elementos de diseño procedentes de otros trabajos en este área realizados por el autor, se implementan tres sistemas de reconocimiento de mamografías que reflejan una evolución tecnológica, culminando en un sistema basado en Redes Neuronales Convolucionales (CNN) cuya arquitectura se diseña gracias al análisis teórico anterior y a los resultados prácticos de análisis de escalas llevados a cabo en nuestra base de datos de imágenes. Los tres sistemas se entrenan y validan con la base de datos de mamografías DDSM, con un total de 100 muestras de entrenamiento y 100 de prueba escogidas para evitar sesgos y reflejar fielmente un programa de cribado. La validez de las CNN para el problema que nos ocupa queda demostrada y se propone un camino de investigación para el diseño de su arquitectura. ABSTRACT This Dissertation investigates the field of computer image recognition applied to medical imaging in mammography. There is an interest in developing learning systems to assist radiologists in recognition of microcalcifications to help them in screening programs for prevention of breast cancer. Analysis of microcalcifications has emerged as a key technique for early diagnosis of breast cancer, but the design of automatic systems to recognize them is complicated by the variability and conditions of mammographic images. In this Thesis the theoretical approaches to design image recognition systems are discussed, with emphasis on the specific problems of detection and classification of microcalcifications. Our study includes techniques ranging from morphological operators, neural networks and support vector machines, to the most recent deep convolutional neural networks. We deal with learning theory by analyzing the importance of the concepts of scale and hierarchy at the design stage and its implications in the search for the architecture of connections and network layers. With these theoretical facts and design elements coming from other works in this area done by the author, three mammogram recognition systems which reflect technological developments are implemented, culminating in a system based on Convolutional Neural Networks (CNN), whose architecture is designed thanks to the previously mentioned theoretical study and practical results of analysis conducted on scales in our image database. All three systems are trained and validated against the DDSM mammographic database, with a total of 100 training samples and 100 test samples chosen to avoid bias and stand for a real screening program. The validity of the CNN approach to the problem is demonstrated and a research way to help in designing the architecture of these networks is proposed.
Resumo:
En el marco del Espacio Europeo de Educación Superior los estudios deben de estar orientados a facilitar la movilidad de los futuros egresados para que su inclusión en mundo laboral sea global y en este contexto, los sistemas educativos deben introducir cambios en el proceso de enseñanza – aprendizaje y en la gestión. Como uno de los elementos básicos de la creación del EEES es el aprendizaje a lo largo de la vida, se deben adoptar metodologías que doten al estudiante de capacidades para poder enfrentarse a todos los retos de la vida laboral. A través de la presente investigación se trata de aportar una visión real de la aplicación efectiva de un modelo de Aprendizaje Basado en Problemas y el Método del Caso acompañados de una fuerte Acción Tutorial y el uso de la Tecnología de la Información y Comunicación en la Universidad (TIC). Se considera asimismo de gran interés para la mejora del aprendizaje conocer cuál es la opinión real de los estudiantes universitarios, ya que son los principales implicados en relación a un modelo formativo apoyado en el Aprendizaje Basado en Problemas, el Método del Caso, la Acción Tutorial y utilización de las TIC. A través de este estudio se pretende comprobar y valorar cual es la visión real que los alumnos tienen de estas aplicaciones y como las utilizan. Para ello durante los últimos cursos se ha trabajado con alumnos de los últimos cursos de la Escuela Técnica Superior de Ingeniería Civil de la Universidad Politécnica de Madrid aplicando técnicas de Aprendizaje Basado en Problemas y el Método del Caso conjuntamente con la utilización de un Modelo de Acción Tutorial y el uso de la TIC. La tarea se ha centrado en desarrollar, a lo largo de los cursos 2009-10, 2010-11, 2011-12 y 2013-14, un modelo de Acción Tutorial con los alumnos matriculados en las asignaturas de Caminos I, Caminos II, Aforos y Ordenación del Tráfico, asignaturas de la titulación de Ingeniería Técnica de Obras Públicas, y por otro lado, en la asignatura de Caminos, perteneciente a la titulación de Ingeniería Civil. Mediante cuestionarios al inicio y final del curso, se ha conocido cuál es la opinión que poseen los alumnos sobre esta acción. A continuación, durante los cursos 2010-11, 2011-12 y 2013-14 se desarrolla un modelo experimental para evaluar las mejoras, tanto de rendimiento como de adquisición de competencias, utilizando el Aprendizaje Basado en Problemas y el Método del Caso acompañados de las TIC en el proceso de enseñanza–aprendizaje como modelo de Acción Tutorial con alumnos. ABSTRACT Abstract In the frame of the European Higher Education Area, the studies must be faced to facilitate mobility of future graduates for inclusion in the workplace is global and in this context, educational systems must introduce changes in the process of education-learning and management. Since one of the basic elements of the creation of the EHEA is learning throughout life, there must be adopted methodologies that provide the student of aptitudes to be able to face all the challenges of the labor life. Through this research it is provided a real vision of the effective application of a Model of Learning Based on Problems and the Case Method accompanied by a strong Tutorial Action and the use of ITC in the University. It is also considered of great interest for the improvement of learning to know what the real opinion of the college students is, as they are the main players in relation in a training model based on Problem-Based Learning, the Case Method, the Tutorial Action and Use of ICT. Through this study it is expected to verify and assess which is the real vision that students have about these applications and how they use them. In order to achieve the goal of this research project, during the last three years I have been working with students of last courses of the Civil Engineering School of the Technical University of Madrid applying with them techniques of Problem-Based Learning and the Case Method together with the use of a Model Action Tutorial and the Use of Information Technology and Communication (ICT). The task has focused on developing, over the 2009-10, 2010-11, 2011-12 and 2013-14 courses, a model of Tutorial Action with students enrolled in the subjects of Roads I, Roads II, Traffic Gauging and Traffic Management, all of them of the old degree in Civil Engineering (1971 Study Plan), and secondly, on the subject of Roads which belong to the current degree of Civil Engineering. Using questionnaires at the beginning and end of the course the perception that students have on this action.. Then, during the 2010-11, 2011-12 and 2013-14 courses an experimental model is developed to evaluate improvements in both performance and skills acquisition, using Problem-Based Learning and the Case Method together with the ICT in Teaching-Learning Pprocess as a model of Tutorial Action with students.
Resumo:
Con esta tesis doctoral se pretende elaborar un modelo de Certificado de Calidad Cinegética independiente, de adhesión voluntaria y aplicable a todo tipo de espacios cinegéticos, de forma que posteriormente pueda convertirse en una metodología que sea empleada como instrumento válido de medición de la Calidad Cinegética y normalizada a través de una familia de Normas aprobadas por un organismo de normalización reconocido a nivel nacional o internacional. En primer lugar, se procedió a la realización de un riguroso y exhaustivo estudio de justificación siguiendo la metodología propuesta por la Norma UNE 66172:2003 IN, Directrices para la justificación y desarrollo de sistemas de gestión (equivalente a la Norma Internacional GUIA ISO/IEC 72:2001). A continuación, se procedió a la identificación y desarrollo de los parámetros de Ordenación Cinegética comunes a cualquier espacio cinegético en España y a la conceptualización de la Calidad Cinegética. Finalmente, se desarrolló un modelo estructurado en nueve Criterios y treinta y cuatro Indicadores de Calidad Cinegética, y un proyecto de familia de Normas para la Certificación de la Calidad Cinegética. ABSTRACT This doctoral thesis aims to produce a model of Hunting Quality Certificate independent, of voluntary adherence and applicable to all types of hunting areas, so that later it can become a methodology to be used as a valid instrument for measuring Hunting Quality and standardized through a family of standards approved by an organization of standardization recognized at a national or an international level. First, we proceeded to carry out a rigorous and comprehensive justification study following the methodology proposed by the UNE 66172: 2003 IN, Guidelines for the justification and development of management systems standards (equivalent to the International Standard GUIA ISO / IEC 72: 2001). Then, we proceeded to the identification and development of Hunting Management parameters common to any hunting area in Spain and the conceptualization of Hunting Quality. Finally, a model structured into nine Criteria and thirty-four Indicators of Hunting Quality and a draft of a family of standards for Hunting Quality Certification were developed.
Resumo:
Este trabajo se ha centrado en la búsqueda y análisis de técnicas de saneamiento y depuración que proporcionen soluciones a poblaciones pequeñas, que por su situación económica o de desarrollo, carecen de estos servicios básicos. Es bien conocido los problemas que genera la falta de acceso al saneamiento básico en contextos de subdesarrollo, agravado en numerosos casos, por los incrementos en la dotación de agua sin introducir las infraestructuras para el tratamiento de las aguas residuales. Esta situación incide directamente sobre la salud de las personas y del medioambiente. Afortunadamente existen Organismos Internacionales y Agencias de Desarrollo y de Medioambiente, que intervienen directamente en estos temas. Los problemas no sólo se presentan en los llamados países en vías de desarrollo, sino que se ha comprobado que también afecta a poblaciones pequeñas con escasos recursos, del mundo más desarrollado. Muchas han sido las técnicas utilizadas con gran éxito en programas de cooperación, pero algunas han fracasado por pérdida de funcionalidad, por errores de diseño, por rápido deterioro de los materiales, o simplemente por falta de adaptabilidad al terreno o no previsión de controles y mantenimiento. La solución a estos eventos pasa por la innovación tanto tecnológica como de gestión, sin olvidar la componente socioeconómica y cultural. Tomar conciencia de un buen diseño adaptado a las características del terreno y de la población, evitaría fracasos por colapso, por falta de mantenimiento, de financiación etc. Por otra parte, se considera necesaria la implementación de programas educativos que incluyan mejoras en los hábitos higiénicos y el conocimiento de las infraestructuras que permitan a la población de destino, adquirir una formación sobre las propias instalaciones, su uso, su mantenimiento y conservación. El desarrollo y mejora de las técnicas de saneamiento y depuración requiere una continuidad en las investigaciones que facilite la adaptación de las instalaciones ya existentes a las diferentes coyunturas que puedan presentarse, garantizando su funcionamiento a largo plazo. Las técnicas denominadas “no convencionales” se caracterizan por ser soluciones económicas y sostenibles, que en algunos casos, requieren poco mantenimiento e incluso éste puede realizarse por personal no especializado, esto es, por los propios usuarios del servicio. Concretamente en el presente trabajo se ha llevado a cabo una revisión general de las tipologías conocidas, tanto convencionales como no convencionales y de su posible aplicación en función de la población de destino, con especial incidencia en las poblaciones más desfavorecidas. Una vez realizada, se han seleccionado las técnicas de saneamiento y depuración no convencionales por el interés personal en las poblaciones con mayores dificultades socioeconómicas. Se han estudiado distintas situaciones en diferentes países y contextos Nicaragua, Ecuador, India y España. Es en esta última, donde se han tenido más facilidades para la obtención de datos y análisis de los mismos, concretamente de la instalación del municipio de Fabara en la provincia de Zaragoza, situado en el Bajo Aragón. ABSTRACT The focus of this project lies on the research and analysis of sanitation and waste water treatment techniques able to provide solutions to small settlements which lack such basic services out of economic or underdevelopment reasons. The problems generated by the absence of access to basic sanitation services in underdevelopment contexts are well known, and many cases can be found where increase of water provision doesn’t involve installation of waste water treatment infrastructures. This situation has a direct impact on people’s health and also on the environment. Fortunately, there are International Organizations and Development Agencies which act directly on these matters. These problems don’t only occur in so called developing countries, as it has been confirmed that small settlements with scarce resources in the more developed world can also be affected. Many techniques have been successfully used in cooperation programs, but also some of them have failed due to loss of functionality, design mistakes, rapid material deterioration, or simply site inadequacy or lack of control and maintenance precautions. The solution to these incidents requires technological as well as management innovation, regarding for all cases the socioeconomic and cultural factors. The awareness of a good design, adapted to the site and population characteristics, would prevent from failures due to collapse, lack of maintenance, funding, etc. Furthermore, the implementation of education programs for improving hygienic habits and for transmitting the understanding of the infrastructures is considered necessary for allowing the aimed population to gain proper knowledge on their own infrastructure, its use, maintenance and preservation. The improvement of sanitation and waste water treatment techniques requires a continuous process of investigation, in order to adapt the existing infrastructure to the different situations that may come up, being able to ensure its long-term functioning. The so called non conventional techniques are characterized by being economic and sustainable solutions, requiring in some cases low maintenance, conducted even by non specialized personnel, that is, by the users themselves. In the present project a general overview of the already developed typologies has been carried out, taking into account the conventional as well as the non conven tional techniques and their possible application according to the aimed population, regarding especially the most underprivileged settlements. Thereupon, out of interest for the settlements with most socioeconomic difficulties, the non conventional sanitation and waste water techniques have been selected. A variety of situations in different countries and contexts has been examined, specifically in Nicaragua, Ecuador, India and Spain. The latest has proven easier for data collection and analysis, focusing finally on the existing infrastructure in the village of Fabara, province of Zaragoza, in the Bajo Aragón.
Resumo:
La presente Tesis analiza y desarrolla metodología específica que permite la caracterización de sistemas de transmisión acústicos basados en el fenómeno del array paramétrico. Este tipo de estructuras es considerado como uno de los sistemas más representativos de la acústica no lineal con amplias posibilidades tecnológicas. Los arrays paramétricos aprovechan la no linealidad del medio aéreo para obtener en recepción señales en el margen sónico a partir de señales ultrasónicas en emisión. Por desgracia, este procedimiento implica que la señal transmitida y la recibida guardan una relación compleja, que incluye una fuerte ecualización así como una distorsión apreciable por el oyente. Este hecho reduce claramente la posibilidad de obtener sistemas acústicos de gran fidelidad. Hasta ahora, los esfuerzos tecnológicos dirigidos al diseño de sistemas comerciales han tratado de paliar esta falta de fidelidad mediante técnicas de preprocesado fuertemente dependientes de los modelos físicos teóricos. Estos están basados en la ecuación de propagación de onda no lineal. En esta Tesis se propone un nuevo enfoque: la obtención de una representación completa del sistema mediante series de Volterra que permita inferir un sistema de compensación computacionalmente ligero y fiable. La dificultad que entraña la correcta extracción de esta representación obliga a desarrollar una metodología completa de identificación adaptada a este tipo de estructuras. Así, a la hora de aplicar métodos de identificación se hace indispensable la determinación de ciertas características iniciales que favorezcan la parametrización del sistema. En esta Tesis se propone una metodología propia que extrae estas condiciones iniciales. Con estos datos, nos encontramos en disposición de plantear un sistema completo de identificación no lineal basado en señales pseudoaleatorias, que aumenta la fiabilidad de la descripción del sistema, posibilitando tanto la inferencia de la estructura basada en bloques subyacente, como el diseño de mecanismos de compensación adecuados. A su vez, en este escenario concreto en el que intervienen procesos de modulación, factores como el punto de trabajo o las características físicas del transductor, hacen inviables los algoritmos de caracterización habituales. Incluyendo el método de identificación propuesto. Con el fin de eliminar esta problemática se propone una serie de nuevos algoritmos de corrección que permiten la aplicación de la caracterización. Las capacidades de estos nuevos algoritmos se pondrán a prueba sobre un prototipo físico, diseñado a tal efecto. Para ello, se propondrán la metodología y los mecanismos de instrumentación necesarios para llevar a cabo el diseño, la identificación del sistema y su posible corrección, todo ello mediante técnicas de procesado digital previas al sistema de transducción. Los algoritmos se evaluarán en términos de error de modelado a partir de la señal de salida del sistema real frente a la salida sintetizada a partir del modelo estimado. Esta estrategia asegura la posibilidad de aplicar técnicas de compensación ya que éstas son sensibles a errores de estima en módulo y fase. La calidad del sistema final se evaluará en términos de fase, coloración y distorsión no lineal mediante un test propuesto a lo largo de este discurso, como paso previo a una futura evaluación subjetiva. ABSTRACT This Thesis presents a specific methodology for the characterization of acoustic transmission systems based on the parametric array phenomenon. These structures are well-known representatives of the nonlinear acoustics field and display large technological opportunities. Parametric arrays exploit the nonlinear behavior of air to obtain sonic signals at the receptors’side, which were generated within the ultrasonic range. The underlying physical process redunds in a complex relationship between the transmitted and received signals. This includes both a strong equalization and an appreciable distortion for a human listener. High fidelity, acoustic equipment based on this phenomenon is therefore difficult to design. Until recently, efforts devoted to this enterprise have focused in fidelity enhancement based on physically-informed, pre-processing schemes. These derive directly from the nonlinear form of the wave equation. However, online limited enhancement has been achieved. In this Thesis we propose a novel approach: the evaluation of a complete representation of the system through its projection onto the Volterra series, which allows the posterior inference of a computationally light and reliable compensation scheme. The main difficulty in the derivation of such representation strives from the need of a complete identification methodology, suitable for this particular type of structures. As an example, whenever identification techniques are involved, we require preliminary estimates on certain parameters that contribute to the correct parameterization of the system. In this Thesis we propose a methodology to derive such initial values from simple measures. Once these information is made available, a complete identification scheme is required for nonlinear systems based on pseudorandom signals. These contribute to the robustness and fidelity of the resulting model, and facilitate both the inference of the underlying structure, which we subdivide into a simple block-oriented construction, and the design of the corresponding compensation structure. In a scenario such as this where frequency modulations occur, one must control exogenous factors such as devices’ operation point and the physical properties of the transducer. These may conflict with the principia behind the standard identification procedures, as it is the case. With this idea in mind, the Thesis includes a series of novel correction algorithms that facilitate the application of the characterization results onto the system compensation. The proposed algorithms are tested on a prototype that was designed and built for this purpose. The methodology and instrumentation required for its design, the identification of the overall acoustic system and its correction are all based on signal processing techniques, focusing on the system front-end, i.e. prior to transduction. Results are evaluated in terms of input-output modelling error, considering a synthetic construction of the system. This criterion ensures that compensation techniques may actually be introduced, since these are highly sensible to estimation errors both on the envelope and the phase of the signals involved. Finally, the quality of the overall system will be evaluated in terms of phase, spectral color and nonlinear distortion; by means of a test protocol specifically devised for this Thesis, as a prior step for a future, subjective quality evaluation.
Resumo:
El incremento de la esperanza de vida en los países desarrollados (más de 80 años en 2013), está suponiendo un crecimiento considerable en la incidencia y prevalencia de enfermedades discapacitantes, que si bien pueden aparecer a edades tempranas, son más frecuentes en la tercera edad, o en sus inmediaciones. Enfermedades neuro-degenerativas que suponen un gran hándicap funcional, pues algunas de ellas están asociadas a movimientos involuntarios de determinadas partes del cuerpo, sobre todo de las extremidades. Tareas cotidianas como la ingesta de alimento, vestirse, escribir, interactuar con el ordenador, etc… pueden llegar a ser grandes retos para las personas que las padecen. El diagnóstico precoz y certero resulta fundamental para la prescripción de la terapia o tratamiento óptimo. Teniendo en cuenta incluso que en muchos casos, por desgracia la mayoría, sólo se puede actuar para mitigar los síntomas, y no para sanarlos, al menos de momento. Aun así, acertar de manera temprana en el diagnóstico supone proporcionar al enfermo una mayor calidad de vida durante mucho más tiempo, por lo cual el esfuerzo merece, y mucho, la pena. Los enfermos de Párkinson y de temblor esencial suponen un porcentaje importante de la casuística clínica en los trastornos del movimiento que impiden llevar una vida normal, que producen una discapacidad física y una no menos importante exclusión social. Las vías de tratamiento son dispares de ahí que sea crítico acertar en el diagnóstico lo antes posible. Hasta la actualidad, los profesionales y expertos en medicina, utilizan unas escalas cualitativas para diferenciar la patología y su grado de afectación. Dichas escalas también se utilizan para efectuar un seguimiento clínico y registrar la historia del paciente. En esta tesis se propone una serie de métodos de análisis y de identificación/clasificación de los tipos de temblor asociados a la enfermedad de Párkinson y el temblor esencial. Empleando técnicas de inteligencia artificial basadas en clasificadores inteligentes: redes neuronales (MLP y LVQ) y máquinas de soporte vectorial (SVM), a partir del desarrollo e implantación de un sistema para la medida y análisis objetiva del temblor: DIMETER. Dicho sistema además de ser una herramienta eficaz para la ayuda al diagnóstico, presenta también las capacidades necesarias para proporcionar un seguimiento riguroso y fiable de la evolución de cada paciente. ABSTRACT The increase in life expectancy in developed countries in more than 80 years (data belongs to 2013), is assuming considerable growth in the incidence and prevalence of disabling diseases. Although they may appear at an early age, they are more common in the elderly ages or in its vicinity. Nuero-degenerative diseases that are a major functional handicap, as some of them are associated with involuntary movements of certain body parts, especially of the limbs. Everyday tasks such as food intake, dressing, writing, interact with the computer, etc ... can become large debris for people who suffer. Early and accurate diagnosis is crucial for prescribing optimal therapy or treatment. Even taking into account that in many cases, unfortunately the majority, can only act to mitigate the symptoms, not to cure them, at least for now. Nevertheless, early diagnosis may provide the patient a better quality of life for much longer time, so the effort is worth, and much, grief. Sufferers of Parkinson's and essential tremor represent a significant percentage of clinical casuistry in movement disorders that prevent a normal life, leading to physical disability and not least social exclusion. There are various treatment methods, which makes it necessary the immediate diagnosis. Up to date, professionals and medical experts, use a qualitative scale to differentiate the disease and degree of involvement. Therefore, those scales are used in clinical follow-up. In this thesis, several methods of analysis and identification / classification of types of tremor associated with Parkinson's disease and essential tremor are proposed. Using artificial intelligence techniques based on intelligent classification: neural networks (MLP and LVQ) and support vector machines (SVM), starting from the development and implementation of a system for measuring and objective analysis of the tremor: DIMETER. This system besides being an effective tool to aid diagnosis, it also has the necessary capabilities to provide a rigorous and reliable monitoring of the evolution of each patient.
Resumo:
Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.
Resumo:
En la actualidad, y en consonancia con la tendencia de “sostenibilidad” extendida a todos los campos y parcelas de la ciencia, nos encontramos con un área de estudio basado en la problemática del inevitable deterioro de las estructuras existentes, y la gestión de las acciones a realizar para mantener las condiciones de servicio de los puentes y prolongar su vida útil. Tal y como se comienza a ver en las inversiones en los países avanzados, con una larga tradición en el desarrollo de sus infraestructuras, se muestra claramente el nuevo marco al que nos dirigimos. Las nuevas tendencias van encaminadas cada vez más a la conservación y mantenimiento, reduciéndose las partidas presupuestarias destinadas a nuevas actuaciones, debido a la completa vertebración territorial que se ha ido instaurando en estos países, entre los que España se encuentra. Este nutrido patrimonio de infraestructuras viarias, que cuentan a su vez con un importante número de estructuras, hacen necesarias las labores de gestión y mantenimiento de los puentes integrantes en las mismas. Bajo estas premisas, la tesis aborda el estado de desarrollo de la implementación de los sistemas de gestión de puentes, las tendencias actuales e identificación de campos por desarrollar, así como la aplicación específica a redes de carreteras de escasos recursos, más allá de la Red Estatal. Además de analizar las diversas metodologías de formación de inventarios, realización de inspecciones y evaluación del estado de puentes, se ha enfocado, como principal objetivo, el desarrollo de un sistema específico de predicción del deterioro y ayuda a la toma de decisiones. Este sistema, adicionalmente a la configuración tradicional de criterios de formación de bases de datos de estructuras e inspecciones, plantea, de forma justificada, la clasificación relativa al conjunto de la red gestionada, según su estado de condición. Eso permite, mediante técnicas de optimización, la correcta toma de decisiones a los técnicos encargados de la gestión de la red. Dentro de los diversos métodos de evaluación de la predicción de evolución del deterioro de cada puente, se plantea la utilización de un método bilineal simplificado envolvente del ajuste empírico realizado y de los modelos markovianos como la solución más efectiva para abordar el análisis de la predicción de la propagación del daño. Todo ello explotando la campaña experimenta realizada que, a partir de una serie de “fotografías técnicas” del estado de la red de puentes gestionados obtenidas mediante las inspecciones realizadas, es capaz de mejorar el proceso habitual de toma de decisiones. Toda la base teórica reflejada en el documento, se ve complementada mediante la implementación de un Sistema de Gestión de Puentes (SGP) específico, adaptado según las necesidades y limitaciones de la administración a la que se ha aplicado, en concreto, la Dirección General de Carreteras de la Junta de Comunidades de Castilla-La Mancha, para una muestra representativa del conjunto de puentes de la red de la provincia de Albacete, partiendo de una situación en la que no existe, actualmente, un sistema formal de gestión de puentes. Tras un meditado análisis del estado del arte dentro de los Capítulos 2 y 3, se plantea un modelo de predicción del deterioro dentro del Capítulo 4 “Modelo de Predicción del Deterioro”. De la misma manera, para la resolución del problema de optimización, se justifica la utilización de un novedoso sistema de optimización secuencial elegido dentro del Capítulo 5, los “Algoritmos Evolutivos”, en sus diferentes variantes, como la herramienta matemática más correcta para distribuir adecuadamente los recursos económicos dedicados a mantenimiento y conservación de los que esta administración pueda disponer en sus partidas de presupuesto a medio plazo. En el Capítulo 6, y en diversos Anexos al presente documento, se muestran los datos y resultados obtenidos de la aplicación específica desarrollada para la red local analizada, utilizando el modelo de deterioro y optimización secuencial, que garantiza la correcta asignación de los escasos recursos de los que disponen las redes autonómicas en España. Se plantea con especial interés la implantación de estos sistemas en la red secundaria española, debido a que reciben en los últimos tiempos una mayor responsabilidad de gestión, con recursos cada vez más limitados. Finalmente, en el Capítulo 7, se plantean una serie de conclusiones que nos hacen reflexionar de la necesidad de comenzar a pasar, en materia de gestión de infraestructuras, de los estudios teóricos y los congresos, hacia la aplicación y la práctica, con un planteamiento que nos debe llevar a cambios importantes en la forma de concebir la labor del ingeniero y las enseñanzas que se imparten en las escuelas. También se enumeran las aportaciones originales que plantea el documento frente al actual estado del arte. Se plantean, de la misma manera, las líneas de investigación en materia de Sistemas de Gestión de Puentes que pueden ayudar a refinar y mejorar los actuales sistemas utilizados. In line with the development of "sustainability" extended to all fields of science, we are faced with the inevitable and ongoing deterioration of existing structures, leading nowadays to the necessary management of maintaining the service conditions and life time extension of bridges. As per the increased amounts of money that can be observed being spent in the countries with an extensive and strong tradition in the development of their infrastructure, the trend can be clearly recognized. The new tendencies turn more and more towards conservation and maintenance, reducing programmed expenses for new construction activities, in line with the already wellestablished territorial structures, as is the case for Spain. This significant heritage of established road infrastructure, consequently containing a vast number of structures, imminently lead to necessary management and maintenance of the including bridges. Under these conditions, this thesis focusses on the status of the development of the management implementation for bridges, current trends, and identifying areas for further development. This also includes the specific application to road networks with limited resources, beyond the national highways. In addition to analyzing the various training methodologies, inventory inspections and condition assessments of bridges, the main objective has been the development of a specific methodology. This methodology, in addition to the traditional system of structure and inspection database training criteria, sustains the classification for the entire road network, according to their condition. This allows, through optimization techniques, for the correct decision making by the technical managers of the network. Among the various methods for assessing the evolution forecast of deterioration of each bridge, a simplified bilinear envelope adjustment made empirical method and Markov models as the most effective solution to address the analysis of predicting the spread of damage, arising from a "technical snapshot" obtained through inspections of the condition of the bridges included in the investigated network. All theoretical basis reflected in the document, is completed by implementing a specific Bridges Management System (BMS), adapted according to the needs and limitations of the authorities for which it has been applied, being in this case particularly the General Highways Directorate of the autonomous region of Castilla-La Mancha, for a representative sample of all bridges in the network in the province of Albacete, starting from a situation where there is currently no formal bridge management system. After an analysis of the state of the art in Chapters 2 and 3, a new deterioration prediction model is developed in Chapter 4, "Deterioration Prediction Model". In the same way, to solve the optimization problem is proposed the use of a singular system of sequential optimization elected under Chapter 5, the "Evolutionary Algorithms", the most suitable mathematical tool to adequately distribute the economic resources for maintenance and conservation for mid-term budget planning. In Chapter 6, and in the various appendices, data and results are presented of the developed application for the analyzed local network, from the optimization model, which guarantees the correct allocation of scarce resources at the disposal of authorities responsible for the regional networks in Spain. The implementation of these systems is witnessed with particular interest for the Spanish secondary network, because of the increasing management responsibility, with decreasing resources. Chapter 7 presents a series of conclusions that triggers to reconsider shifting from theoretical studies and conferences towards a practical implementation, considering how to properly conceive the engineering input and the related education. The original contributions of the document are also listed. In the same way, the research on the Bridges Management System can help evaluating and improving the used systematics.
Resumo:
Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.
Resumo:
Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.
Resumo:
Dentro del equipamiento que existen en los hospitales, se realizan muy diversas actuaciones para el correcto funcionamiento de los equipos que se destinan, tanto a medir sobre el paciente o para tratamiento sobre estos mismos, el abanico de equipos que existen es muy grande, sin contar con los que directamente se instalan o, más correctamente, se implantan en el paciente. Los hospitales tienen establecidas pautas de mantenimiento tanto correctivo como preventivo, también de verificación relativa a seguridad y, en algunos casos, acciones que van destinadas a comprobar las magnitudes en los equipos. Esto último no es lo normal, de hecho, en muchos casos, la mayoría, se desconoce cómo poder comprobar que las magnitudes de un equipo se pueden trazar a un patrón de medida nacional. La investigación se ha desarrollado para determinar, siendo algo que esta patente hasta en la normalización ISO, que no existen para muchos equipos principios establecidos para garantizar la trazabilidad metrológica da las magnitudes físicas en las que trabaja durante su vida útil. Debido a la amplitud de este campo, el desarrollo de investigación se ha llevado en un formato piramidal, desde las necesidades para poder llegar a un estudio concreto de equipos concretos (Termómetros Clínicos, Tensiómetros, Ultrasonidos y Onda Corta). Para llegar a estos se ha realizado un estudio de cómo se encuentra la trazabilidad metrológica en todo el espectro, desde la gestión hasta llegar a casos particulares. Estudiando la gran cantidad de documentación existente y llegando a determinar el campo de trabajo en la metrología hospitalaria, clasificando los equipos y determinando como se encuentran definidos los métodos que llevan a realidad la trazabilidad metrológica, en la normalización. Un grupo no muy trabajado de los equipos electromédicos son los que se encuentran dentro de los tratamientos de Rehabilitación de traumatología, siendo equipos de uso muy habitual en los centros de salud para las lesiones musculares y óseas. A este asunto se ha dedicado un esfuerzo extra, con un reporte histórico de su origen y en qué punto se encuentran ahora. Se han estudiado dentro de estos equipos los de tratamiento de ultrasonidos, de diatermia y onda corta, que son los más representativos de los equipos destinados a electro terapia, pero hay que tener en cuenta que hay campos que se han mencionado globalmente de la rehabilitación, como son la terapia o la biomecánica, de forma similar a otras tecnologías sanitarias de otras especialidades (radiología o análisis clínico). Hay, también, dentro de la terapia, todos esos tratamientos propios de gimnasio, como son poleas, pesas, mesas de masajes, balones, etc… Que su metrología es sencilla, son equipos que existen medios de comprobación de las magnitudes que utilizan por la existencia en otras actividades de la industria (balanzas, pesas, etc). La investigación realizada ha pretendido evaluar todo el global y llegar a casos concretos para determinar cómo está la situación. Llegando a desarrollar una clasificación de equipos y de normas, que permiten vislumbrar las necesidades metrológicas y permitiría establecer una Gestión de la Trazabilidad Metrológica, concluyendo en el estudio para los equipos que se han mencionado. ABSTRACT Within the equipment that exist in the hospitals, there are very diverse performances for the correct operation of the equipment that is intended both to measure on the patient or for treatment on these same, the range of equipment available is very large, without which directly are installed or, more correctly, are implanted in the patient. The hospitals have established patterns of maintenance both corrective and preventive, also of verification of security and, in some cases, actions which are intended to check the magnitudes in the equipment. This last is not normal, in fact, in many cases, the majority, it is not known as to be able to check that the magnitudes of a computer can be traced to a pattern of national measure. The research has been developed to determine, is something that this patent up to the International Organization for Standardization (ISO), that do not exist for many teams established principles to ensure the metrological traceability gives the physical quantities in which they work during its useful life. Due to the breadth of this field, the development of research has been conducted in a pyramid format, from the needs to be able to reach a specific study of specific equipment (Clinical Thermometers, Tensiometers, Ultrasound, and Short Wave). To reach theme, has been carried out a study of how is the metrological traceability across the entire spectrum, from the management to individuals cases. Considering the large amount of existing documentation and arriving to determine the labor camp in the metrology hospital, sorting equipment and determining how are defined the methods that lead to reality the metrological traceability, in the standardization. A group not too worked for medical electrical equipment are found within the rehabilitation treatment of traumatology, being equipment of very common use in the health centers for muscle injuries and bone. In this matter has been dedicated an extra effort, with a report history of its origin and where they are now. We have studied within these teams about the treatment of ultrasound, diathermy, short wave, which are the most representative of the equipment that is destined to electro therapy, but it must be borne in mind that there are fields that have been mentioned globally of rehabilitation, as are the therapy or the biomechanics, similar to other health technologies from other specialties (radiology or clinical analysis). There is, also, within the therapy, all these treatments own gym, such as pulleys, weights, tables of massages, balls, etc… that its metrology is simple, are computers that there are means of verification of the magnitudes that used by the existence in other activities of the industry (scales, weights, etc). The research carried out has tried to assess the entire global and reach specific cases to determine the situation as it is. Arriving in the development of a classification of equipment and standards, which give us a glimpse of the metrological needs and establish a Management of the Metrological Traceability, concluding in the study for computers that have been mentioned.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.