78 resultados para ACCIDENTES
Resumo:
El uso de técnicas para la monitorización del movimiento humano generalmente permite a los investigadores analizar la cinemática y especialmente las capacidades motoras en aquellas actividades de la vida cotidiana que persiguen un objetivo concreto como pueden ser la preparación de bebidas y comida, e incluso en tareas de aseo. Adicionalmente, la evaluación del movimiento y el comportamiento humanos en el campo de la rehabilitación cognitiva es esencial para profundizar en las dificultades que algunas personas encuentran en la ejecución de actividades diarias después de accidentes cerebro-vasculares. Estas dificultades están principalmente asociadas a la realización de pasos secuenciales y al reconocimiento del uso de herramientas y objetos. La interpretación de los datos sobre la actitud de este tipo de pacientes para reconocer y determinar el nivel de éxito en la ejecución de las acciones, y para ampliar el conocimiento en las enfermedades cerebrales, sus consecuencias y severidad, depende totalmente de los dispositivos usados para la captura de esos datos y de la calidad de los mismos. Más aún, existe una necesidad real de mejorar las técnicas actuales de rehabilitación cognitiva contribuyendo al diseño de sistemas automáticos para crear una especie de terapeuta virtual que asegure una vida más independiente de estos pacientes y reduzca la carga de trabajo de los terapeutas. Con este objetivo, el uso de sensores y dispositivos para obtener datos en tiempo real de la ejecución y estado de la tarea de rehabilitación es esencial para también contribuir al diseño y entrenamiento de futuros algoritmos que pudieran reconocer errores automáticamente para informar al paciente acerca de ellos mediante distintos tipos de pistas como pueden ser imágenes, mensajes auditivos o incluso videos. La tecnología y soluciones existentes en este campo no ofrecen una manera totalmente robusta y efectiva para obtener datos en tiempo real, por un lado, porque pueden influir en el movimiento del propio paciente en caso de las plataformas basadas en el uso de marcadores que necesitan sensores pegados en la piel; y por otro lado, debido a la complejidad o alto coste de implantación lo que hace difícil pensar en la idea de instalar un sistema en el hospital o incluso en la casa del paciente. Esta tesis presenta la investigación realizada en el campo de la monitorización del movimiento de pacientes para proporcionar un paso adelante en términos de detección, seguimiento y reconocimiento del comportamiento de manos, gestos y cara mediante una manera no invasiva la cual puede mejorar la técnicas actuales de rehabilitación cognitiva para la adquisición en tiempo real de datos sobre el comportamiento del paciente y la ejecución de la tarea. Para entender la importancia del marco de esta tesis, inicialmente se presenta un resumen de las principales enfermedades cognitivas y se introducen las consecuencias que tienen en la ejecución de tareas de la vida diaria. Más aún, se investiga sobre las metodologías actuales de rehabilitación cognitiva. Teniendo en cuenta que las manos son la principal parte del cuerpo para la ejecución de tareas manuales de la vida cotidiana, también se resumen las tecnologías existentes para la captura de movimiento de manos. Una de las principales contribuciones de esta tesis está relacionada con el diseño y evaluación de una solución no invasiva para detectar y seguir las manos durante la ejecución de tareas manuales de la vida cotidiana que a su vez involucran la manipulación de objetos. Esta solución la cual no necesita marcadores adicionales y está basada en una cámara de profundidad de bajo coste, es robusta, precisa y fácil de instalar. Otra contribución presentada se centra en el reconocimiento de gestos para detectar el agarre de objetos basado en un sensor infrarrojo de última generación, y también complementado con una cámara de profundidad. Esta nueva técnica, y también no invasiva, sincroniza ambos sensores para seguir objetos específicos además de reconocer eventos concretos relacionados con tareas de aseo. Más aún, se realiza una evaluación preliminar del reconocimiento de expresiones faciales para analizar si es adecuado para el reconocimiento del estado de ánimo durante la tarea. Por su parte, todos los componentes y algoritmos desarrollados son integrados en un prototipo simple para ser usado como plataforma de monitorización. Se realiza una evaluación técnica del funcionamiento de cada dispositivo para analizar si es adecuada para adquirir datos en tiempo real durante la ejecución de tareas cotidianas reales. Finalmente, se estudia la interacción con pacientes reales para obtener información del nivel de usabilidad del prototipo. Dicha información es esencial y útil para considerar una rehabilitación cognitiva basada en la idea de instalación del sistema en la propia casa del paciente al igual que en el hospital correspondiente. ABSTRACT The use of human motion monitoring techniques usually let researchers to analyse kinematics, especially in motor strategies for goal-oriented activities of daily living, such as the preparation of drinks and food, and even grooming tasks. Additionally, the evaluation of human movements and behaviour in the field of cognitive rehabilitation is essential to deep into the difficulties some people find in common activities after stroke. This difficulties are mainly associated with sequence actions and the recognition of tools usage. The interpretation of attitude data of this kind of patients in order to recognize and determine the level of success of the execution of actions, and to broaden the knowledge in brain diseases, consequences and severity, depends totally on the devices used for the capture of that data and the quality of it. Moreover, there is a real need of improving the current cognitive rehabilitation techniques by contributing to the design of automatic systems to create a kind of virtual therapist for the improvement of the independent life of these stroke patients and to reduce the workload of the occupational therapists currently in charge of them. For this purpose, the use of sensors and devices to obtain real time data of the execution and state of the rehabilitation task is essential to also contribute to the design and training of future smart algorithms which may recognise errors to automatically provide multimodal feedback through different types of cues such as still images, auditory messages or even videos. The technology and solutions currently adopted in the field don't offer a totally robust and effective way for obtaining real time data, on the one hand, because they may influence the patient's movement in case of marker-based platforms which need sensors attached to the skin; and on the other hand, because of the complexity or high cost of implementation, which make difficult the idea of installing a system at the hospital or even patient's home. This thesis presents the research done in the field of user monitoring to provide a step forward in terms of detection, tracking and recognition of hand movements, gestures and face via a non-invasive way which could improve current techniques for cognitive rehabilitation for real time data acquisition of patient's behaviour and execution of the task. In order to understand the importance of the scope of the thesis, initially, a summary of the main cognitive diseases that require for rehabilitation and an introduction of the consequences on the execution of daily tasks are presented. Moreover, research is done about the actual methodology to provide cognitive rehabilitation. Considering that the main body members involved in the completion of a handmade daily task are the hands, the current technologies for human hands movements capture are also highlighted. One of the main contributions of this thesis is related to the design and evaluation of a non-invasive approach to detect and track user's hands during the execution of handmade activities of daily living which involve the manipulation of objects. This approach does not need the inclusion of any additional markers. In addition, it is only based on a low-cost depth camera, it is robust, accurate and easy to install. Another contribution presented is focused on the hand gesture recognition for detecting object grasping based on a brand new infrared sensor, and also complemented with a depth camera. This new, and also non-invasive, solution which synchronizes both sensors to track specific tools as well as recognize specific events related to grooming is evaluated. Moreover, a preliminary assessment of the recognition of facial expressions is carried out to analyse if it is adequate for recognizing mood during the execution of task. Meanwhile, all the corresponding hardware and software developed are integrated in a simple prototype with the purpose of being used as a platform for monitoring the execution of the rehabilitation task. Technical evaluation of the performance of each device is carried out in order to analyze its suitability to acquire real time data during the execution of real daily tasks. Finally, a kind of healthcare evaluation is also presented to obtain feedback about the usability of the system proposed paying special attention to the interaction with real users and stroke patients. This feedback is quite useful to consider the idea of a home-based cognitive rehabilitation as well as a possible hospital installation of the prototype.
Resumo:
El riesgo de caída por deslizamiento en los edificios es un riesgo muy importante ya que supone numerosas muertes, perdida de días laborales y secuelas, así como importantes costes económicos. Se trata de accidentes difíciles de predecir debido al número de factores que intervienen para que se produzcan, muchos de los cuales son difícilmente controlables, como el calzado del usuario o su comportamiento. Para evitar un resbalón es necesario que la fricción del conjunto pavimento/calzado/contaminante supere el coeficiente de fricción requerido para la estabilidad y que depende de la forma de caminar, la longitud del paso, etc. Por ello, es necesario medir la contribución del pavimento al riesgo de deslizamiento y limitarla adecuadamente. A lo largo de la historia reciente se han diseñado y desarrollado multitud de aparatos con la intención de medir esta contribución en la forma de coeficientes de fricción —dinámicos, estáticos, de transición— sin llegar a un acuerdo sobre cuál es el método más apropiado. La reglamentación española de edificación, que ha sufrido un importante cambio recientemente con la adopción de un nuevo código basado en prestaciones, ha sido innovadora en este campo introduciendo por primera vez una medida contrastable de la contribución del pavimento al riesgo de deslizamiento mediante el ensayo del péndulo de fricción en húmedo. Sin embargo, el desacuerdo a nivel europeo sobre un ensayo único y las limitaciones en las normas de ensayo existentes derivadas de esta falta de consenso, han sido la causa de que la solución aportada por el Código Técnico de la Edificación (CTE) se cimentara en normas que no contemplaban todas las modalidades de ensayo. Esto ha generado algunos problemas de aplicación que han afectado fundamentalmente a los pavimentos pulidos, que han visto prácticamente vetada su utilización en los edificios incluso en las zonas donde, por no existir presencia de agua, el riesgo es menor. El objetivo de esta tesis es analizar estos problemas de aplicación, ligados al ensayo del péndulo de fricción, y tratar de resolverlos optimizando el procedimiento de ensayo empleado, modificando sus condiciones, para representar de forma mucho más adecuada el riesgo que se pretende limitar. Para ello se ha estudiado de forma exhaustiva la literatura científica y las normas y reglamentaciones, tanto españolas como extranjeras. Se han detectado los posibles problemas que podría plantear la introducción del ensayo del péndulo de fricción en seco y se ha diseñado una campaña de ensayos, tanto de coeficiente de fricción con el péndulo, como de la rugosidad superficial, para confirmarlos o desecharlos. El análisis de los resultados de la campaña de ensayos ha permitido validar la modalidad de ensayo planteada y proponer una medida complementaria de la rugosidad superficial que resulte útil para facilitar la evaluación de este riesgo no poco importante. Los resultados de esta tesis han permitido desarrollar una modificación del CTE de próxima aparición y un documento de apoyo que ya la adelanta, y con ello, resolver el problema de aplicación del CTE a los pavimentos pulidos. ABSTRACT Slipping accidents in building environments are a serious problem involving numerous fatal accidents, loss of work days, incapacity and great costs. Prediction of such accidents is difficult due to the number of factors involved, many of which are not controllable, like footwear or users behavior. To prevent a slip the coefficient of friction provided by the combination floor-footwear-contaminant must be greater than the required coefficient of friction for stability, that depends on the step length and the walking speed among other factors. It is then necessary to measure the contribution of the floor to the slipping risk so it can be limited to an adequate extent. In the recent history many apparatuses have been developed in order to measure this contribution in the form of friction coefficients —dynamic, static or even transition COFs— but none of them seems to be internationally accepted as sufficiently valid. The Spanish Building Code, which has recently undergone a big change to a performance based code, has been innovative in this area, introducing for the first time a measurement of this contribution by means of the friction pendulum test. However, due to the European disagreement about an unique test for slip resistance, and to the limitations of the European standards derived from it, the Spanish Building Code relies on standards that do not take into account all possible methods. As a consequence, smooth floors have been seriously affected and cannot be installed in almost any place, not even in dry areas where the risk of slipping is much lower. The aim of this research is to analyze these problems associated with the pendulum test and resolve them proposing some changes to the test conditions in order to represent in a proper manner the real risk that is to be considered: the slip in dry conditions. Relevant scientific literature has been studied as well as Spanish and foreign codes and standards. Potential problems of the pendulum test in dry conditions have been detected and an experiment has been designed to confirm or discard them, testing both friction coefficient and surface roughness. The results of the experiment have permitted to validate the pendulum test in dry conditions and to suggest a complementary measurement of the surface roughness to help evaluate the slip resistance of a floor. These results have also permitted to develop an amendment to the building code that will appear soon. In the meanwhile it has been included in a support document issued by the administration to resolve this urgent problem.
Resumo:
Hoy en día, los teléfonos inteligentes forman parte de la vida de la mayoría de las personas, desde los usuarios más jóvenes a los más adultos, demostrando su utilidad en distintas actividades y con objetivos diferentes, como pueden ser por cuestiones de trabajo, estudio, ocio o incluso seguridad. Con respecto a este último aspecto se ha detectado una utilidad práctica para el colectivo de peatones. Según la DGT el 48% de los fallecidos en accidentes urbanos fueron peatones. Con el objetivo de disminuir drásticamente esta cifra se ideó un proyecto que incrementara la seguridad del peatón avisándole de los potenciales peligros que pudieran afectarle. Para ello era necesario que los vehículos de su entorno, de alguna manera, informaran de su posición y trayectoria y que un software analizara esta información para detectar potenciales situaciones de riesgo. Dada la versatilidad y la ubicuidad de los teléfonos inteligentes (prácticamente la mayoría de personas lo llevan continuamente) se decidió utilizarlos como soporte para el procesado de esta información. Para especificar la funcionalidad de la aplicación se han definido una serie de historias de usuario. La aplicación desarrollada solicita a los vehículos la información necesaria para calcular sus trayectorias y comprueba si pueden suponer algún peligro para el peatón, alertándole en ese caso. ABSTRACT Nowadays, smartphones are part of most people’s life, from the youngest to the oldest users, showing their usefulness in different activities and with different objectives, such as labour issues, studies, leisure or even safety. With respect to this last point, it has been detected a practical utility for pedestrians. According to the DGT, the 48% of the deceased due to urban accidents were pedestrians. In order to slash this figure, it was devised a project to increase pedestrian safety warning him of potential hazards that could affect him. To do so, it was needed that vehicles around him report their position and trajectory, and that a software analyse this information to detect potential risk situations. Due to the versatility and ubiquity of smartphones (practically the majority of people carries them continuously), it was decided to use them as support for the processing of this information. To specify the application functionality, it has been defined a set of user stories. The application developed requests the information needed to the vehicles to calculate their trajectories and checks if they may constitute a hazard for pedestrians, alerting them if that is the case.
Resumo:
En las ciudades europeas, los patrones de movilidad son cada vez más complejos debido fundamentalmente a un crecimiento sostenido de la población así como a la tendencia de dispersión de los núcleos urbanos. En consecuencia, muchos de los usuarios del transporte público se ven obligados a combinar varios modos o servicios de transporte para completar sus viajes diarios. Por tanto, el mayor reto de las ciudades es conseguir una mejora e incremento en la movilidad mientras que al mismo tiempo se reducen problemas como la congestión, los accidentes y la contaminación (COM, 2006). Un principio básico para lograr una movilidad sostenible es reducir los inconvenientes y molestias derivados de la transferencia o ruptura del viaje. En este sentido, los intercambiadores de transporte público juegan un papel fundamental como nodos de la red urbana de transporte y la calidad del servicio prestado en ellos tiene una influencia directa sobre la experiencia diaria de los viajeros. Como señaló Terzis and Last (2002), un intercambiador de transportes urbano eficiente debe ser competitivo y al mismo tiempo, debe ser atractivo para los usuarios dado que sus experiencias físicas y sus reacciones psicológicas se ven influenciadas de manera significativa por el diseño y operación del intercambiador. Sin embargo, todavía no existen standards o normativas a nivel europeo que especifiquen como deberían ser estos intercambiadores. Esta tesis doctoral proporciona conocimientos y herramientas de análisis dirigidas a planificadores y gestores de los propios intercambiadores con el fin de entender mejor el funcionamiento de los intercambiadores y gestionar así los recursos disponibles. Así mismo, esta tesis identifica los factores clave en el diseño y operación de intercambiadores urbanos de transporte y proporciona algunas guías generales de planificación en base a ellos. Dado que las percepciones de los usuarios son particularmente importantes para definir políticas adecuadas para intercambiadores, se diseñó y se llevó a cabo en 2013 una encuesta de satisfacción al viajero en tres intercambiadores de transporte urbano europeos: Moncloa (Madrid, España), Kamppi (Helsinki, Finlandia) e Ilford Railway Station ( Londres, Reino Unido). En resumen, esta tesis pone de relieve la naturaleza ambivalente de los intercambiadores urbanos de transporte, es decir, como nodos de la red de transporte y como lugares en sí mismos donde los usuarios pasan tiempo dentro de ellos y propone algunas recomendaciones para hacer más atractivos los intercambiadores a los usuarios. Travel patterns in European urban areas are becoming increasingly complex due to a sustained increase in the urban population and the trend towards urban sprawl. Consequently, many public transport users need to combine several modes or transport services to complete their daily trips. Therefore, the challenge facing all major cities is how to increase mobility while at the same time reducing congestion, accididents and pollution (COM, 2006). Reducing the inconvenience inherent in transferring between modes is a basic principle for achieving sustainable mobility. In this regard, transport interchanges play a key role as urban transport network nodes, and the quality of the service provided in them has a direct influence on travellers' daily experience. As noted by Terzis and Last (2000), an efficient urban transport interchange must be competitive and, at the same time, be attractive for users given that their physical experiences and psychological reactions are significantly influenced by the design and operation of the interchange. However, yet there are no standards or regulations specifying the form these interchanges should take in Europe. This doctoral thesis provides knowledge and analysis tools addressed to developers and managers in order to understand better the performance of an urban transport interchange and manage the available resources properly. Likewise, key factors of the design and operation of urban transport interchanges are identified and some 'Planning guidelines' are proposed on the basis on them. Since the users' perceptions of their experience are particularly important for achieving the most appropriate policy measures for interchanges, an ad‐hoc travellers' satisfaction survey was designed and carried out in 2013 at three European transport interchanges: Moncloa (Madrid, Spain), Kamppi (Helsinki, Finland) and Ilford Railway Station (London, United Kingdom) In summary, this thesis highlights the ambivalent nature of the urban transport interchanges, i.e. as nodes within the transport network and as places where users spending time and proposes some policy recommendations in order to make urban transport interchanges attractive for users.
Resumo:
Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.
Resumo:
Los accidentes con implicación de autocares en los que se producen vuelcos ponen de manifiesto la especial agresividad de los mismos, como lo confirman las estadísticas. Como medida para mejorar la seguridad de los Vehículos de Grandes Dimensiones para el Transporte de Pasajeros (V.G.D.T.P.) frente a vuelco fue aprobado por las Naciones Unidas el Reglamento Nº 66 de Ginebra. Este reglamento establece los requisitos mínimos que las estructuras de los vehículos de grandes dimensiones deben cumplir con respecto a vuelco. El reglamento 66 ha supuesto un paso adelante muy importante en relación con la seguridad de los autocares, puesto que especifica por primera vez requerimientos estructurales a este tipo de vehículos, y en general ha supuesto una mejora del vehículo . Por otro lado, a consecuencia de la obligatoriedad de instalación de cinturones de seguridad, existe una unión entre pasajeros y vehículo, pero como no se trata de una unión rígida, hay que contemplar el porcentaje de la masa de los ocupantes que influye en la absorción de energía de la estructura. Además la retención de los ocupantes con cinturones de seguridad influye en la energía a absorber por la estructura del vehículo en dos aspectos, por un lado aumenta la masa del vehículo y en el otro se incrementa la altura el centro de gravedad. Esta situación a conducido a elaborar por parte de las Naciones Unidas la revisión 01 del Reglamento 66, en el que se considera que el 50 % de la masa total de los pasajeros posee una unión rígida con la estructura del vehículo, y por lo tanto debe ser tenida en cuenta si el vehículo posee sistemas de retención. En la situación actual, con limitaciones de peso del vehículo y peso por eje, los elementos de confort, seguridad y espacio para maleteros contribuyen a aumentar el peso del vehículo. Esto unido a la dificultad de introducción de cambios radicales en la concepción actual de fabricación de este tipo de vehículos por suponer unas pérdidas importantes para los fabricantes existentes, tanto en su conocimiento del producto como en su metodología de proceso, conlleva la necesidad cada vez más agobiante de analizar y evaluar otras alternativas estructurales que sin suponer grandes revoluciones a los productos actualmente en fabricación los complementen permitiendo adaptarse a los nuevos requerimientos en seguridad. Recientes desarrollos en la relación costo-beneficio de los procesos para la producción de materiales celulares metálicos de baja densidad, tales como las espumas metálicas, los posiciona como una alternativa de especial interés para la aplicación como elementos de absorción de energía para reforzar estructuras. El relleno con espumas metálicas puede ser más eficiente en términos de optimización de peso comparado con el aumento de espesor de los perfiles estructurales, dado que la absorción de energía se produce en una fracción relativamente pequeña de los perfiles, en las denominadas rótulas plásticas. La aplicación de espumas de relleno metálicas en estructuras de vehículos se está empezando a emplear en determinadas zonas de los vehículos de turismo, siendo totalmente novedosa cualquier intento de aplicación en estructuras de autobuses y autocares. Conforme a lo expuesto, y con el objeto de resolver estos problemas, se ha elaborado el presente trabajo de tesis doctoral, cuyos objetivos son: -Desarrollar un modelo matemático, que permita simular el ensayo de vuelco, considerando la influencia de los ocupantes retenidos con cinturones de seguridad para evaluar su influencia en la absorción de energía de la estructura. -Validar el modelo matemático de vuelco de la estructura mediante ensayos de secciones representativas de la estructura del vehículo y mediante el ensayo de un vehículo completo. -Realizar un estudio de las propiedades de las espumas metálicas que permitan incorporarlas como elemento de absorción de energía en el relleno de componentes de la superestructura de autobuses y autocares. -Desarrollar un modelo matemático para evaluar el aporte del relleno de espuma metálica en la absorción de energía ante solicitaciones por flexión estática y dinámica en componentes de la superestructura de autobuses o autocares. -Realizar un programa de ensayos a flexión estáticos y dinámicos para validar el modelo matemático del aporte del relleno de espuma metálica sobre componentes de la superestructura de autobuses y autocares. . -Incorporar al modelo matemático de vuelco de la estructura, los resultados obtenidos sobre componentes con relleno de espuma metálica, para evaluar el aporte en la absorción de energía. -Validar el modelo de vuelco de la estructura del autobús o autocar con relleno de espuma metálica, mediante ensayos de secciones de carrocería. ABSTRACT Accidents involving buses in which rollovers occur reveal the special aggressiveness thereof, as the statistics prove. As a measure to improve the safety of large vehicles for the transport of passengers to rollover, Regulation 66 of Geneva was approved by the United Nations. This regulation establishes the minimum requirements that structures of large vehicles must comply with respect to rollovers. The regulation 66 has been a major step forward in relation to the safety of coaches, since it specifies structural requirements to such vehicles and has been an improvement for the vehicle. In turn, as a result of compulsory installation of safety belts, there is contact between passengers and vehicle, but as it is not a rigid connection we must contemplate the percentage of the mass of the occupants that impacts on the energy absorption of the structure. Thus, the passengers’ restraining modifies the energy to absorb by the vehicle in two different aspects: On the one hand, it increases the vehicle weight and on the other the height of the center of gravity. This circumstance has taken the United Nations to elaborate Revision 01 of Regulation 66, in which it is considered that the 50 percent of passengers’ mass has a rigid joint together with the vehicle structure and, therefore, the passengers’ mass mentioned above should be highly considered if the vehicle has seat belts. In the present situation, in which limitations in vehicle weight and weight in axles are stricter, elements of comfort, safety and space for baggage are contributing to increase the weight of the vehicle. This coupled with the difficulty of introducing radical changes in the current conception of manufacturing such vehicles pose significant losses for existing manufacturers, both in product knowledge and process methodology, entails the overwhelming need to analyze and evaluate other structural alternatives without assuming relevant modifications on the products manufactured currently allowing them to adapt to the new safety requirements. Recent developments in cost-benefit processes for the production of metallic foams of low density, such as metal foams, place them as an alternative of special interest to be used as energy absorbers to strengthen structures. The filling with metal foams can be more efficient in terms of weight optimization compared with increasing thickness of the structural beams, since the energy absorption occurs in a relatively small fraction of the beams, called plastic hinges. The application of metal filling foams in vehicle structures is beginning to be used in certain areas of passenger cars, being an innovative opportunity in structures for application in buses and coaches. According to the mentioned before, and in order to come forward with a solution, this doctoral thesis has been prepared and its objectives are: - Develop a mathematical model to simulate the rollover test, considering the influence of the occupants held with seat belts to assess their influence on energy absorption structure. - Validate the mathematical model of the structure rollover by testing representative sections of the vehicle structure and by testing a complete vehicle. - Conduct a study of the properties of metal foams as possible incorporation of energy absorbing element in the filler component of the superstructure of buses and coaches. - Elaborate a mathematical model to assess the contribution of the metal foam filling in absorbing energy for static and dynamic bending loads on the components of buses or coaches superstructure. - Conduct a static and dynamic bending test program to validate the mathematical model of contribution of metal foam filling on components of the superstructure of buses and coaches bending. - To incorporate into the mathematical model of structure rollover, the results obtained on components filled with metal foam, to evaluate the contribution to the energy absorption. - Validate the rollover model structure of the bus or coach filled with metal foam through tests of bay sections. The objectives in this thesis have been achieved successfully. The contribution calculation model with metal foam filling in the vehicle structure has revealed that the filling with metal foam is more efficient than increasing thickness of the beams, as demonstrated in the experimental validation of bay sections.
Resumo:
La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdad” del 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
El Código Técnico de la Edificación (CTE) aprobado en 2006 reguló por primera vez el riesgo de caída debido al deslizamiento de los suelos (Documento Básico SUA Seguridad de utilización y accesibilidad). En el CTE se optó por utilizar el ensayo del péndulo descrito en la norma UNE ENV 12633 y que se realiza en húmedo. No sólo existen muchos otros ensayos, como el ensayo de la rampa, deslizadores dinámicos y estáticos, etc., sino que el propio ensayo del péndulo presenta variaciones entre las distintas normas en las que están descritos, entre otros aspectos, las distintas gomas para la zapata, las condiciones en seco o húmedo, el distinto número de medidas o el número de muestras. En edificios existentes es habitual encontrar suelos que presentan muy baja resistencia al deslizamiento, o que la han perdido con el tiempo, y que son frecuentes causas de accidentes. El ensayo del péndulo tiene la ventaja de que permite su realización “in situ” sobre suelos existentes, pero algunas consideraciones siguen debatiéndose en la literatura científica: ¿Es razonable ensayar siempre en condiciones húmedas o sería más apropiado ensayar en seco? ¿Son las distintas gomas igualmente apropiadas? ¿Cuál es la relación entre la rugosidad superficial del pavimento y el valor del péndulo de fricción? El objetivo de la investigación que se está llevando a cabo es analizar las fortalezas y debilidades del método de ensayo del péndulo de fricción en suelos pulidos, y la influencia de algunos de los parámetros mencionados con el objeto de que esta información pueda servir para optimizar el ensayo.
Resumo:
La seguridad y fiabilidad de los procesos industriales son la principal preocupación de los ingenieros encargados de las plantas industriales. Por lo tanto, desde un punto de vista económico, el objetivo principal es reducir el costo del mantenimiento, el tiempo de inactividad y las pérdidas causadas por los fallos. Por otra parte, la seguridad de los operadores, que afecta a los aspectos sociales y económicos, es el factor más relevante a considerar en cualquier sistema Debido a esto, el diagnóstico de fallos se ha convertido en un foco importante de interés para los investigadores de todo el mundo e ingenieros en la industria. Los principales trabajos enfocados en detección de fallos se basan en modelos de los procesos. Existen diferentes técnicas para el modelado de procesos industriales tales como máquinas de estado, árboles de decisión y Redes de Petri (RdP). Por lo tanto, esta tesis se centra en el modelado de procesos utilizando redes de petri interpretadas. Redes de Petri es una herramienta usada en el modelado gráfico y matemático con la habilidad para describir información de los sistemas de una manera concurrente, paralela, asincrona, distribuida y no determinística o estocástica. RdP son también una herramienta de comunicación visual gráfica útil como lo son las cartas de flujo o diagramas de bloques. Adicionalmente, las marcas de las RdP simulan la dinámica y concurrencia de los sistemas. Finalmente, ellas tienen la capacidad de definir ecuaciones de estado específicas, ecuaciones algebraicas y otros modelos que representan el comportamiento común de los sistemas. Entre los diferentes tipos de redes de petri (Interpretadas, Coloreadas, etc.), este trabajo de investigación trata con redes de petri interpretadas principalmente debido a características tales como sincronización, lugares temporizados, aparte de su capacidad para procesamiento de datos. Esta investigación comienza con el proceso para diseñar y construir el modelo y diagnosticador para detectar fallos definitivos, posteriormente, la dinámica temporal fue adicionada para detectar fallos intermitentes. Dos procesos industriales, concretamente un HVAC (Calefacción, Ventilación y Aire Acondicionado) y un Proceso de Envasado de Líquidos fueron usados como banco de pruebas para implementar la herramienta de diagnóstico de fallos (FD) creada. Finalmente, su capacidad de diagnóstico fue ampliada en orden a detectar fallos en sistemas híbridos. Finalmente, un pequeño helicóptero no tripulado fue elegido como ejemplo de sistema donde la seguridad es un desafío, y las técnicas de detección de fallos desarrolladas en esta tesis llevan a ser una herramienta valorada, desde que los accidentes de las aeronaves no tripuladas (UAVs) envuelven un alto costo económico y son la principal razón para introducir restricciones de volar sobre áreas pobladas. Así, este trabajo introduce un proceso sistemático para construir un Diagnosticador de Fallos del sistema mencionado basado en RdR Esta novedosa herramienta es capaz de detectar fallos definitivos e intermitentes. El trabajo realizado es discutido desde un punto de vista teórico y práctico. El procedimiento comienza con la división del sistema en subsistemas para seguido integrar en una RdP diagnosticadora global que es capaz de monitorear el sistema completo y mostrar las variables críticas al operador en orden a determinar la salud del UAV, para de esta manera prevenir accidentes. Un Sistema de Adquisición de Datos (DAQ) ha sido también diseñado para recoger datos durante los vuelos y alimentar la RdP diagnosticadora. Vuelos reales realizados bajo condiciones normales y de fallo han sido requeridos para llevar a cabo la configuración del diagnosticador y verificar su comportamiento. Vale la pena señalar que un alto riesgo fue asumido en la generación de fallos durante los vuelos, a pesar de eso esto permitió recoger datos básicos para desarrollar el diagnóstico de fallos, técnicas de aislamiento, protocolos de mantenimiento, modelos de comportamiento, etc. Finalmente, un resumen de la validación de resultados obtenidos durante las pruebas de vuelo es también incluido. Un extensivo uso de esta herramienta mejorará los protocolos de mantenimiento para UAVs (especialmente helicópteros) y permite establecer recomendaciones en regulaciones. El uso del diagnosticador usando redes de petri es considerado un novedoso enfoque. ABSTRACT Safety and reliability of industrial processes are the main concern of the engineers in charge of industrial plants. Thus, from an economic point of view, the main goal is to reduce the maintenance downtime cost and the losses caused by failures. Moreover, the safety of the operators, which affects to social and economic aspects, is the most relevant factor to consider in any system. Due to this, fault diagnosis has become a relevant focus of interest for worldwide researchers and engineers in the industry. The main works focused on failure detection are based on models of the processes. There are different techniques for modelling industrial processes such as state machines, decision trees and Petri Nets (PN). Thus, this Thesis is focused on modelling processes by using Interpreted Petri Nets. Petri Nets is a tool used in the graphic and mathematical modelling with ability to describe information of the systems in a concurrent, parallel, asynchronous, distributed and not deterministic or stochastic manner. PNs are also useful graphical visual communication tools as flow chart or block diagram. Additionally, the marks of the PN simulate the dynamics and concurrence of the systems. Finally, they are able to define specific state equations, algebraic equations and other models that represent the common behaviour of systems. Among the different types of PN (Interpreted, Coloured, etc.), this research work deals with the interpreted Petri Nets mainly due to features such as synchronization capabilities, timed places, apart from their capability for processing data. This Research begins with the process for designing and building the model and diagnoser to detect permanent faults, subsequently, the temporal dynamic was added for detecting intermittent faults. Two industrial processes, namely HVAC (Heating, Ventilation and Air Condition) and Liquids Packaging Process were used as testbed for implementing the Fault Diagnosis (FD) tool created. Finally, its diagnostic capability was enhanced in order to detect faults in hybrid systems. Finally, a small unmanned helicopter was chosen as example of system where safety is a challenge and fault detection techniques developed in this Thesis turn out to be a valuable tool since UAVs accidents involve high economic cost and are the main reason for setting restrictions to fly over populated areas. Thus, this work introduces a systematic process for building a Fault Diagnoser of the mentioned system based on Petri Nets. This novel tool is able to detect both intermittent and permanent faults. The work carried out is discussed from theoretical and practical point of view. The procedure begins with a division of the system into subsystems for further integration into a global PN diagnoser that is able to monitor the whole system and show critical variables to the operator in order to determine the UAV health, preventing accidents in this manner. A Data Acquisition System (DAQ) has been also designed for collecting data during the flights and feed PN Diagnoser. Real flights carried out under nominal and failure conditions have been required to perform the diagnoser setup and verify its performance. It is worth noting that a high risk was assumed in the generation of faults during the flights, nevertheless this allowed collecting basic data so as to develop fault diagnosis, isolations techniques, maintenance protocols, behaviour models, etc. Finally, a summary of the validation results obtained during real flight tests is also included. An extensive use of this tool will improve preventive maintenance protocols for UAVs (especially helicopters) and allow establishing recommendations in regulations. The use of the diagnoser by using Petri Nets is considered as novel approach.
Resumo:
Como es bien sabido, actualmente la Unión Europea pasa por un momento de crisis energética y en concreto España tiene el problema de su gran dependencia energética de otros países, al mismo tiempo que el consumo de gas natural ha aumentado. El hecho de que Estados Unidos se haya autoabastecido energéticamente gracias al gas de esquisto extraído por fracturación hidráulica, hace que en Europa y consecuentemente en España, se vea esta técnica de forma favorable dado que reduciría esta dependencia energética. Pero en contra, la fracturación hidráulica ha dado lugar en Estados Unidos a una serie de accidentes cuyas consecuencias han tenido impacto en el medio ambiente y esto ha provocado un gran debate social a cerca de las consecuencias medioambientales de la extracción de gas de esquisto. Es inevitable, que al igual que ocurre con la extracción de hidrocarburos convencionales, también durante la extracción de hidrocarburos no convencionales existan unos riesgos asociados. Este Trabajo Fin de Máster se engloba dentro de un proyecto titulado “Seguridad en un proyecto de gas de esquisto” concretamente en la convocatoria de 2014 de “Proyectos I+D+I, del Programa Estatal de Investigación y Desarrollo e Innovación orientado a los retos de la sociedad”, por el Ministerio de Economía y Competitividad. Se ha realizado un estudio de incidentes ocurridos en Estados Unidos que es donde más experiencia hay en la práctica de la técnica de la fracturación hidráulica y una vez conocidas sus causas y el tipo de impacto se ha asignado las probabilidades de que ocurran y en qué fase del proyecto de extracción de gas de esquisto es más probable que tengan lugar. Las principales preocupaciones en relación con el medio ambiente que se plantean respecto a la explotación del gas no convencional mediante la técnica de la fracturación hidráulica son: contaminación de los acuíferos (bien sea por el fluido de fracturación empleado o por el metano); consumo de agua necesaria durante la fracturación hidráulica; el tratamiento, control y posible radiactividad de las aguas de retorno; sismicidad inducida por la fracturación hidráulica y contaminación atmosférica por emisiones incontroladas, especialmente metano. Con el objetivo de controlar, prevenir o mitigar los riesgos que conlleva el desarrollo de estas prácticas, la Unión Europea estableció la Recomendación (2014/70/UE), de 22 de enero de 2014. Del mismo modo, debido al incremento del número de permisos de investigación de esta técnica que se solicitaron en España, las actividades de fracturación hidráulica se regularon en el artículo 9.5 de la Ley 17/2013 del Sector de Hidrocarburos y por la Ley 21/2013 de Evaluación de Impacto Ambiental. Consecuentemente se han propuesto en este trabajo una serie de recomendaciones para minimizar los incidentes que pudiesen ocurrir en España provocados por esta técnica. Las más destacadas son: correcto diseño del pozo, realización de estudios hidrológicos y redes de control, reducción del consumo de agua mediante reutilización de las aguas de retorno y de producción después de que se traten en plantas de tratamiento de aguas residuales, utilización de equipos de medida de sustancias químicas en la planta, monitorización sísmica en tiempo real 3D del pozo, así como planes de vigilancia de tipo semáforo para reducir la sismicidad inducida por la aplicación de la técnica.
Resumo:
Las instalaciones de residuos mineros abandonadas procedentes de la minería metálica pueden suponer un grave riesgo medioambiental y de seguridad debido a su potencial contaminante y a la posibilidad de ocasionar accidentes por su fallo estructural. Desgraciadamente, en la mayoría de los países de la Unión Europea existen un gran número de presas, balsas, pilas de lixiviación y escombreras mineras cerradas que se encuentran abandonadas y sin ningún control estructural o ambiental al haberse originado en actividades extractivas finalizadas con anterioridad a la aparición de las primeras normativas de índole ambiental aplicables. Algunas de las instalaciones de residuos mineros abandonadas pueden además contener reservas de metales apreciables al proceder sus residuos de actividades extractivas pasadas en las que se emplearon procesos metalúrgicos e hidrometalúrgicos de concentración con eficiencias de recuperación inferiores a las obtenibles con técnicas extractivas actuales. En la presente tesis doctoral se ha desarrollado una metodología de análisis que puede servir de herramienta útil para la toma de decisiones en los procesos de remediación de instalaciones de residuos mineros procedentes de la minería metálica. Dicha metodología se ha construido a partir de los resultados que se puedan obtener del análisis de riesgos ambientales de las instalaciones estudiadas, estableciendo las metodologías más apropiadas para su remediación en función de los riesgos específicos que presenten. La metodología propuesta incluye además el análisis de la posibilidad de proceder al aprovechamiento de los residuos mineros presentes en las instalaciones mediante la extracción de sus metales, para lo que se han desarrollado una serie de expresiones que pueden emplearse en el análisis de la viabilidad en términos económicos, ambientales y sostenibles de dicho aprovechamiento obtenidas sobre la base de las últimas experiencias al respecto registradas bibliográficamente y del estudio de los costes de inversión y operación que pueden suponer dichas operaciones en función de las tecnologías extractivas empleadas. Para finalizar, en la última parte de la tesis se incluye un caso práctico de aplicación de la metodología desarrollada en el que se estudian las posibilidades de remediación de tres presas mineras abandonadas procedentes de la extracción de plomo y zinc y se analiza la posibilidad de proceder al aprovechamiento de sus residuos mediante la extracción de metales de sus estériles. ABSTRACT The abandoned mining waste facilities from the metallic mining may pose environmental and safety risks due to its pollution potential as well as due to the possibility of structural collapses. Unfortunately, in most countries of the European Union there are a large number of tailing dams, tailing ponds, leaching heaps and mining waste-rock dump sites that are abandoned without any structural or environmental control. That is because they were originated in extractive activities completed prior to the appearance of the first environmental applicable regulations. Some of the abandoned mining waste facilities can also contain significant reserves of metals due to the fact that their waste comes from past mining activities when metallurgical processes and hydrometallurgical concentration were used with lower efficiency than those obtainable with present recovery mining techniques. At present thesis a method of analysis that can serve as a useful tool for decision making in the process of remediation of mining waste facilities from the metal mining has been developed. This methodology has been built from the results that may be obtained from the analysis of environmental risks at studied facilities, therefore establishing the most appropriate methodologies for its remediation based on their specific risks. The proposed methodology also includes the analysis of the possibility to beneficiate the mining residues contained on the mining waste facilities by extracting their metals. For that purpose, some expressions have been developed that can be used in the analysis of the economic viability of such extraction. Expressions are obtained on the basis of recent registered bibliographically, experiences and from the study of investment and operating costs that may suppose such extractions depending on extractive technologies used. Finally, in the last part of the thesis a case of application of the methodology proposed has been developed, in which, the possibilities for remediation of three abandoned mining dams related to the extraction of lead and zinc are studied and the possibility of beneficiate their waste by extracting metals is analyzed.
Resumo:
El fenómeno de balance paramétrico se ha convertido en un tema de actualidad en los últimos años debido al aumento de accidentes relacionados y las discusiones en OMI debido a su indiscutible importancia en la seguridad del buque, su carga y tripulación. Por esta razón, su estudio ha atraído el interés de universidades, administraciones y sociedades de clasificación. Esta tesis trata el fenómeno de balance paramétrico desde diferentes puntos de vista. Primero, se estudiaran los diferentes escenarios donde el fenómeno de balance paramétrico ha ocurrido para entender cómo se desarrolla el fenómeno en la vida real, así como sus implicaciones en la seguridad de las personas y carga abordo. Un modelo matemático no lineal de movimiento de balance desacoplado es propuesto. Este modelo se basa en la aproximación cuadrática del momento de amortiguamiento junto con un brazo adrizante dependiente del tiempo. Este modelo es validado con datos experimentales del Canal de Ensayos de la ETSI Navales (UPM) relativos a un buque de pesca de 34.5m de eslora y dos cubiertas para diferentes casos de olas longitudinales. Se encuentra una correspondencia muy satisfactoria en términos de fase y amplitud entre el modelo teórico y los datos de canal para el caso en particular. El modelo es comparado con el estado del arte de la tecnología disponible actualmente, así como con los requisitos mínimos que están siendo discutidos en OMI relativos a los Criterios de Estabilidad de Segunda Generación. Finalmente, el fenómeno es revisado desde los puntos de vista de diseño y operacional para entender los parámetros relevantes detrás del fenómeno y conocer/aplicar las herramientas disponibles y medios para afrontar/mitigar este fenómeno. ABSTRACT A parametric roll resonance phenomenon has become a very relevant technical issue in recent years due the increasing number of accidents related and the ongoing discussions at the IMO due to its undisputed importance in the safety of the ship, its cargo and crew. For this reason, its study has attracted the interest of universities, regulatory bodies and classification societies. This thesis deals with this phenomenon of parametric roll resonance from different points of view. First, we will look at different real scenarios where parametric roll resonance phenomena has occurred in order to further understand how it is developed in real life and its implications for the safety of the people and cargo onboard. A non-linear mathematical model of the uncoupled roll motion is also presented. This model is based on a classic quadratic approximation of the damping momentum together with a time-varying restoring arm. This model is validated with real data taken from experimental results of the E.T.S.I. Navales Towing Tank on a trawler of two decks of 34.5 m. length for different cases of longitudinal waves. A very satisfactory correspondence, in terms of phase and amplitude, is found between the theoretical model presented and the real data on this particular case. The model is compare with the state-of-the-art technology currently available as well as with the minimum requirements currently being discussed as part of the IMO SGISC. Finally, the phenomenon is reviewed from design and operational aspects to understand the underlying parameters and know the available tools and ways to tackle/mitigate this phenomenon.
Resumo:
En este trabajo se estudian y detallan , bajo el punto de vista de los riesgos laborales, los riesgos que suponen para los trabajadores los principales procesos , equipos y máquinas que se emplean en el Laboratorio Oficial de Investigaciones Metalográficas de la ETSI Minas y Energía- UPM (LIMM) ya sean mecánicos, químicos, físicos o eléctricos. Además de los riesgos específicos citados debemos tener en cuenta que el personal del laboratorio también se ve sometido a riesgos por manipulación de cargas de forma repetitiva y continuada. El estudio y las propuestas en materia de prevención de riesgos laborales de este proyecto han sido elaboradas para cumplir con las medidas de protección necesarias como queda establecido en el artículo 14 de la Ley de Prevención de Riesgos Laborales - Ley 31/1995 sobre el derecho a la protección frente a los riesgos laborales para garantizar la seguridad y salud de las personas que realizan las actividades del laboratorio. El objetivo es presentar propuestas correctoras frente a los riesgos encontrados para erradicar el número de accidentes laborales que se han materializado o que pueden llegar a producirse a causa de unas deficientes condiciones de trabajo, estas propuestas ofrecen las medidas correctoras de tipo colectivo, prioritarias en cualquier plan de prevención de riesgos laborales, como medidas de tipo individual o particular, los llamados EPIs (equipos de protección individual). En primer lugar se actúa sobre el foco de origen del riesgo, si no fuera posible sobre el medio de propagación y si ninguna de las anteriores medidas se pudiera llevar a cabo sobre las personas que se encuentran en contacto.
Resumo:
La “Actuación en la Crisis”, objetivo principal de esta tesis, trata de establecer y concretar los procedimientos y apoyos desde tierra y a bordo de los buques, tanto técnicos como operacionales, a seguir por el Capitán y tripulación de un buque después de un accidente, en especial cuando el buque tiene un riesgo importante de hundimiento o necesidad de abandono. La aparición de este concepto es relativamente reciente, es decir desde el año 1995, después de los estudios y propuestas realizados, por el Panel de Expertos de IMO, como consecuencia del hundimiento del buque de pasaje y carga rodada, Estonia, en el que perdieron la vida más de 850 personas a finales de Septiembre de 1994. Entre las propuestas recomendadas y aceptadas por los gobiernos en la Conferencia Internacional SOLAS 1995, figuraba este concepto novedoso, que luego fue adoptado de una forma generalizada para todos los tipos de buques, que hasta entonces sólo disponían de documentos dispersos y a veces contradictorios para la actuación en estos momentos de peligro, que dio lugar a un profundo tratamiento de este problema, que iba a afectar a los buques, tanto en los conceptos y parámetros de proyecto, como a la propia operación del buque. La tesis desarrolla los fundamentos, estado del arte, implantación y consecuencias sobre la configuración y explotación del buque, que han dado lugar a una serie de documentos, que se han incluido en diversos Convenios Internacionales, Códigos y otros documentos de obligada aplicación en la industria naval generados en IMO (SOLAS, Retorno Seguro a Puerto, Plano y Libro de Control de Averías, ISM). La consecuencia más novedosa e interesante de este concepto ha sido la necesidad de disponer cada compañía explotadora del buque, de un servicio importante de “apoyo en la crisis”, que ha dado lugar a implantar un “servicio de emergencia especial”, disponible las 24 horas del día y 365 de año que ofrecen las Sociedades de Clasificación. El know-how de los accidentes que tratan estos servicios, hacen que se puedan establecer ciertas recomendaciones, que se centran, en que el buque tenga, por sus propios medios, una posibilidad de aumentar el KM después de una avería, la garantía de la resistencia estructural adecuada y el aumento del tiempo de hundimiento o el tiempo de mantenimiento a flote (otro tipo de averías vinculadas con la maquinaria, equipo o protección y lucha contra incendios, no son objeto de tesis). Las conclusiones obtenidas, son objeto de discusión especialmente en IACS e IMO, con el fin de establecer las aplicaciones pertinentes, que permitan dar al buque una mayor seguridad. Como objetivo principal de esta tesis es establecer estos puntos de mejora consecuencia de esta actuación en la crisis, con la aportación de varias soluciones que mejorarían los problemas mencionados para los tres tipos de buques que consideramos más importantes (pasaje, petroleros y bulkcarriers) La tesis recorre, desde el principio en 1995, la evolución de esta actuación en la crisis, hasta el momento actual., los puntos básicos que se establecen, que van muy de la mano de la llamada “cultura de seguridad”, objetivo nacido durante los años 90, con el fin de implantar una filosofía distinta para abordar el tratamiento de la seguridad del buque, a la que se venía aplicando hasta el momento, en donde se contemplaba tratar el tema de forma singular y específica para cada caso. La nueva filosofía, trataba de analizar el problema, desde un aspecto global y por tanto horizontal, realizando un estudio exhaustivo de las consecuencias que tendría la aplicación de una nueva medida correctora, en los restantes equipos y sistemas del buque., relativos al proyecto, configuración, operación y explotación del buque. Se describen de manera sucinta las profundas investigaciones a que dio lugar todo lo anterior, estando muchas de ellas, vinculadas a grandes proyectos europeos. La mayor parte de estos proyectos fueron subvencionados por la Comunidad Económica Europea durante la primera década del siglo actual. Dentro de estas investigaciones, donde hay que destacar la participación de todos los agentes del sector marítimo europeo, se hacen imprescindibles la utilización de dos herramientas novedosas para nuestro sector, como son el “Estudio de Riesgos” y la “Evaluación de la Seguridad”, más conocida técnicamente por su nombre ingles “Safety Assessment”, cuyos principios también son incluidos en la tesis. Además se especifican las bases sobre las que se establecen la estabilidad intacta y en averías, con nuevos conceptos, no tratados nunca hasta entonces, como la “altura crítica de agua en cubierta” para la cual el buque se hundiría sin remisión, “estado de la mar” en la que se puede encontrar el buque averiado, el cálculo del tiempo de hundimiento, u otros aspectos como el corrimiento de la carga, o bien el tratamiento de los problemas dinámicos en el nuevo “Código de Estabilidad Intacta”. Con respecto a la resistencia estructural, especialmente el estudio de la “resistencia estructural después de la avería”, que tiene en cuenta el estado de la mar en la que se encontraría el buque afectado. Se analizan los tipos de buques mencionados uno por uno y se sacan, como aportación fundamental de esta tesis, separadamente, las acciones y propuestas a aplicar a estos buques. En primer lugar, las relativas al proyecto y configuración del buque y en segundo lugar, las de operación, explotación y mantenimiento, con el fin de acometer, con garantías de éxito, la respuesta a la ayuda en emergencia y la solución a la difícil situación que pueden tener lugar en condiciones extremas. Para ver el efecto de algunas de las propuestas que se incluyen, se realizan y aplican concretamente, a un buque de pasaje de carga rodada, a un petrolero y a un bulkcarrier, para demostrar el mejor comportamiento de estos buques en situación de emergencia. Para ello se han elegido un buque ejemplo para cada tipo, efectuándose los cálculos de estabilidad y resistencia longitudinal y comparar la situación, en la que quedaría el buque averiado, antes y después de la avería. La tesis se completa con una estadística real de buques averiados de cada uno de estos tres tipos, distinguiendo el tipo de incidente y el número de los buques que lo han sufrido, considerándose como más importantes los incidentes relacionados con varadas, colisiones y fuego resumiéndose lo más relevante de esta aportación también importante de esta tesis. ABSTRACT The "Response in an emergency" is the main objective of this thesis, it seeks to establish and define procedures for technical and operational support onboard and shore, to be followed by the captain and crew on of a ship after an accident, especially when the ship has a significant risk of sinking or a need to abandon it. The emergence of this concept is relatively recent, in 1995, after studies and proposals made by the Panel of Experts IMO, following the sinking of the “Estonia” vessel, where more than 850 people died in late September 1994. In the International Convention SOLAS 1995, among the recommended proposals and accepted regulations, this new concept was included, which was later adopted for all types of ships which until then had only scattered some documents, sometimes including contradictory actions in emergency situations. This led to a profound treatment of this problem, which would affect the vessels in both the concepts and design parameters, as to the proper operation of the vessel. The thesis develops the foundations, state of the art, implementation and consequences on the design and operation of the vessel, this has led to a series of Circulars and Regulations included in several International Codes and Conventions issued by IMO which are required to be complied with (SOLAS Safe Return to Port, Damage Control Plan and Booklet, ISM). The most novel and interesting consequence of this concept has been the need for every company operating the ship to have a shore based support service in emergency situations which has led to implement special emergency services offered by Class Societies which are available 24 hours a day, 365 days per year. The know-how of these services dealing with all types of accidents can establish certain recommendations, which focus on the ship capability to increase the KM after damage. It can also be determined adequate structural strength and the increase of the capsizing time or time afloat (other types of damages associated with the machinery, equipment or firefighting, are not the subject of this thesis). The conclusions are discussed especially in IACS and IMO, in order to establish appropriate applications to improve the security of the vessels. The main objective of this thesis is to establish actions to improve emergency actions, resulting from different responses in the crisis, with the contribution of several solutions that improve the problems mentioned for three types of ships that we consider most important (passenger vessels, tankers and bulk carriers) The thesis runs from the beginning in 1995 to date, the evolution of the response on the crisis. The basics established during the 90s with the "safety culture" in order to implement a different philosophy to address the treatment of the safety of the ship, which was being previously implemented, as something singular and specific to each case. The new philosophy tried to analyse the problem from a global perspective, doing an exhaustive study of the consequences of the implementation of the new regulation in the ship systems and equipment related to the design, configuration and operation of the vessel. Extensive investigations which led to the above are described, many of them being linked to major European projects. Most of these projects were funded by the European Union during the first decade of this century. Within these investigations, which it must be highlighted the participation of all players in the European maritime sector, a necessity to use two new tools for our industry, such as the "Risk Assessment" and "Safety Assessment" whose principles are also included in the thesis. The intact and damage stability principles are established including new concepts, never treated before, as the "critical height of water on deck" for which the ship would sink without remission, "sea state" where the damaged vessel can be found, calculation of capsizing time, or other aspects such cargo shifting or treatment of dynamic problems in the new Intact Stability Code in development. Regarding the structural strength, it has to be especially considered the study of the "residual strength after damage", which takes into account the state of the sea where the vessel damaged can be found. Ship types mentioned are analysed one by one, as a fundamental contribution of this thesis, different actions and proposals are established to apply to these types of vessels. First, those ones relating to the design and configuration of the vessel and also the ones related to the operation and maintenance in order to support successfully responses to emergency situations which may occur in extreme situations. Some of the proposals are applied specifically to a RoRo passenger ship, an oil tanker and a bulkcarrier, to demonstrate the improved performance of these vessels damaged. An example for each type vessel has been chosen, carrying out stability and longitudinal strength calculations comparing the situation of the ship before and after damage. The thesis is completed with incidents statics for each of these three types, distinguishing the type of incident and the number of ships having it. The most important incidents considered are the ones related to groundings, collisions and fire being this other relevant contribution of this thesis.