1000 resultados para Seguridad ciudadana en Medellín
Resumo:
En España el esfuerzo para la articulación del territorio mediante vías de comunicación y transporte se ha visto incrementado enormemente en los últimos años. En las nuevas carreteras las exigencias de confort y seguridad se reflejan en la menor dependencia que el trazado presenta respecto a la topografía del terreno lo que a su vez implica la multiplicación del número de obras de ingeniería civil como puentes y túneles. Entre éstos últimos, por las mismas razones, se observa un incremento en el número de túneles con longitudes apreciables y por tanto incapaces de ser ventilados con tiro natural. Quiere ello decir que se han multiplicado las instalaciones de ventilación forzada en túneles de carretera, lo que ha llevado a un mayor conocimiento de los sistemas empleados así como al planteamiento de algunas cuestiones sobre las que es preciso profundizar. En España se dispone en este momento de amplia experiencia en instalaciones construidas con diferentes sistemas de ventilación: longitudinal, transversal, etc. Pero debido probablemente al empleo de calzadas separadas para los diferentes sentidos de tráfico, se observa una tendencia creciente al uso del sistema longitudinal con aceleradores lo que, por otra parte, está en consonancia con lo que sucede en el resto del mundo. La ventilación longitudinal tiene ventajas bien conocidas relativas a su flexibilidad y coste, incluso cuando es preciso recurrir a instalaciones intermedias de pozos auxiliares en túneles de gran longitud. Por otro lado presenta algunos problemas relativos tanto a su funcionamiento interior como a su relación con el exterior. Entre éstos últimos cabe citar el impacto que túneles urbanos largos pueden tener en la contaminación ambiental. En efecto, puesto que la ventilación longitudinal arrastra los contaminantes a lo largo del tubo, el vertido en la boca de aguas abajo suele tener una contaminación superior a la permitida en ambientes urbanos. Es curioso observar cómo se ha movido la tendencia en los estudios de ventilación a discutir no ya los requisitos en el interior sino la calidad exigible en el vertido o los procedimientos para mejorarla. En este sentido puede ser necesario recurrir al uso de chimeneas difusoras,o métodos basados en la precipitación electrostática donde se están proporcionando soluciones ingeniosas y prometedoras. Un problema "exterior" de interés que se presenta cuando se dispone de poco espacio para separar las bocas es la recirculación entre túneles gemelos con diferentes sentidos de tráfico y ventilación. Así puede suceder que los vertidos contaminados procedentes de la salida de un tubo sean aspirados por el gemelo en lugar del aire limpio que se pretendía. En situaciones normales es un fenómeno raro pues el vertido se realiza en forma de chorro y la absorción mediante un sumidero por lo que el cortocircuito suele ser pequeño. La situación se complica cuando la salida se realiza entre taludes altos o cuando sopla viento lateral o frontal que favorece la mezcla. En muchos casos se recurre a muros separados que son muy efectivos incluso con dimensiones moderadas. En este artículo los temas tratados se refieren por el contrario a problemas relacionados con el flujo del aire en el interior del túnel. Como es sabido los proyectos de ventilación en túneles deben contemplar al menos dos situaciones:el funcionamiento en servicio y la respuesta en emergencias, entre las que la más típica es la de incendio. Mientras que en la primera priman los requisitos de confort, en la segunda se trata de cuantificar la seguridad y, en especial, de establecer las estrategias que permitan en primer lugar salvar vidas y además minimizar el deterioro de las instalaciones. Generalmente los índices que se manejan para el confort están relacionados con el contenido en monóxido de carbono y con la opacidad del aire. En ambos casos la ventilación forzada tiene como objetivo introducir la cantidad de aire limpio necesario para reducir las proporciones a niveles admisibles por los usuarios. Son requisitos que se refieren a escenarios con alta probabilidad de ocurrencia y para las que la instalación debe disponer de márgenes de seguridad holgados. Por otro lado la situación accidental se presenta con una frecuencia mucho más baja y los impulsores deben proyectarse para que sean capaces de dar los picos precisos para responder a la estrategia de ventilación que se haya planteado así como para funcionar en ambientes muy agresivos. Es clásica la cita al fuego en el túnel Holland (N. Y) donde la capa de aire fresco a ras de suelo permitió la huida de los pasajeros atrapados y la llegada de equipos de rescate. El tema es de tal importancia que se ha incrementado el número de pruebas a escala real con objeto de familiarizar a los equipos de explotación y extinción con estas situaciones excepcionales a la par que para observar y cuantificar los problemas reales. En los túneles de El Padrún, la Demarcación de Carreteras del Estado de Asturias (MOPTMA) ha invertido un gran esfuerzo en los estudios de seguridad tanto en los aspectos estructurales como funcionales. Se han seguido en ambos casos los pasos tradicionales para el establecimiento de la auténtica experiencia ingenieril es decir la observación de fenómenos, su medición y su interpretación y síntesis mediante modelos abstractos. En el tema concreto de la seguridad frente a situaciones accidentales se han realizado experimentos con un incendio real y con humos fríos y calientes. En este artículo se presentan algunos de los modelos numéricos que, basándose en las enormes posibilidades que ofrecen los medios informáticos actuales, se han construido para identificar fenómenos observados en los experimentos y para estudiar cuestiones que se plantean durante la explotación o el proyecto y para las que todavía no se dispone de un cuerpo de doctrina bien establecido.
Resumo:
El incremento experimentado por la construcción de grandes túneles ha provocado un renovado interés por el estudio de las diferentes situaciones de accidente que se pueden producir durante su vida de servicio. Entre ellos uno de los más complicados y peor conocidos es el caso de un accidente con fuego en el interior del túnel. Mediante el uso de un método numérico de volúmenes finitos este articulo presenta un estudio sobre las implicaciones del uso de trampillas de extracción de humos así como algunas conclusiones obtenidas tras el estudio de los resultados. La nueva red de carreteras es uno de los factores básicos de cohesión entre los países de la Unión Europea. Las estrictas condiciones impuestas en su proyecto para favorecer la rápida distribución de personas y bienes, tienen gran influencia en la construcción de túneles mayores y más largos que, además, sufren el paso de un numero de vehículos en continuo crecimiento. Este aumento de tráfico se ve acompañado por una demanda de confort y seguridad especialmente en lo que se refiere a la ventilación necesaria para mantener controlada la contaminación en el interior del túnel así como en las precauciones que deben establecerse para limitar el daño y las muertes que puedan surgir durante el desarrollo de un incendio. En túneles urbanos, donde la contaminación provocada por el trafico puede afectar al ambiente, tradicionalmente se ha tomado como factor dimensionante la situación de servicio en condiciones de intensidad nominal. Sin embargo, la reducción en la emisión de contaminantes como consecuencia de reglamentos mas estrictos ha inclinado la balanza hacia el esceiario de fuego como el más necesitado de estudio. En medio urbano esa situación se complica en caso de tráfico saturado. Puesto que esta condición "accidental" es independiente del tráfico que cruza el túnel (salvo a efectos de las filosofías de actuación sobre los sistemas de ventilación) se concluye que esta situación es la condición dimensionante del sistema. Existe una larga tradición en el estudio de estos temas que puede seguirse en la serie de Conferencias organizadas por la BHRA desde 1975 o las recomendaciones preparadas por el Grupo de túneles de la PIARC.
Modelo y diseño de interacción basado en confianza para espacios inteligentes orientados a la eSalud
Resumo:
La computación ubicua se ha convertido en un paradigma de referencia para el diseño de espacios inteligentes y los desarrollos actuales en el campo de la inteligencia ambiental están cada vez más relacionados con el concepto de Internet de las Cosas y la Internet del Futuro. A pesar de que este paradigma ofrece soluciones verdaderamente rentables en los ámbitos de la Teleasistencia, la sanidad y Ambient Assisted Living, no proporciona al usuario final un rol claramente defi?nido en el desarrollo de las interacciones dinámicas con el entorno. Por lo tanto, el despliegue de servicios de eSalud inteligentes en un espacio privado, como la casa, está todavía sin resolver. En este artículo se define un modelo de interacción persona-ambiente para fomentar la confianza y aceptación de usuarios en entornos privados mediante la aplicación de los conceptos de seguridad centrada en el usuario, diseño guiado por la actividad y la teoría de la acción.
Resumo:
La aparición de errores o pequeñas diferencias entre la situación ideal prevista y la real durante la ejecución o proyecto de una obra constituye un fenómeno inherente a la limitación humana. Las Normas Oficiales suelen recoger en su articulado tolerancias máximas admisibles para estos errores deducidos, muchas veces, mediante criterios empíricos. Un planteamiento acaso más racional será indicar los valores límites de las imperfecciones de la obra en función del nivel de seguridad adoptado. En este artículo, se estudia desde este punto de vista, la influencia de los errores de ejecución en el valor de la carga crítica de la estructura. Evidentemente, las imperfecciones no deben ser limitadas únicamente por criterios de estabilidad global de la estructura, puesto que existen otras causas de colapso de la misma, que pueden verse afectados más seriamente por las imperfecciones y por consiguiente ser más exigentes en los niveles de las tolerancias máximas. Las imperfecciones que se consideran aquí, corresponden a valores relativamente pequeños producidos por un conjunto de causas simultáneas y por lo tanto son susceptibles de un tratamiento estadístico. Se excluyen de este estudio las equivocaciones o errores groseros cuya descripción matemática mediante métodos probabilistas no es adecuada. Se utilizarán aquí la conjunción de dos técnicas de cálculo -un modelo estructural basado en la teoría de la inestabilidad elástica lineal y un modelo probabilista con distribución gaussiana o uniforme- que se desarrollan de un modo numérico mediante el procedimiento de simulación de Monte-Carlo. Se comprende que la extensión del procedimiento de Monte-Carlo al análisis de otros tipos de modelos estructurales más refinados o bien que consideren otros mecanismos de colapso, así como distintas imperfecciones, es directo a causa del carácter eminentemente numérico del método
Resumo:
La verificación de la seguridad estructural, tanto de estructuras que permitan un cierto grado de deterioro en su dimensionado como de estructuras existentes deterioradas, necesita disponer de modelos de resistencia que tengan en cuenta los efectos del deterioro. En el caso de la corrosión de las armaduras en las estructuras de hormigón armado, la resistencia depende de múltiples factores tales como la sección del acero corroído, el diagrama tensión-deformación del acero corroído, la adherencia hormigón-acero corroído, la fisuración o desprendimiento del hormigón debido a la expansión de los productos de corrosión. En este sentido, la transferencia de las fuerzas a través de la superficie de contacto entre el hormigón y el acero, la adherencia, es uno de los aspectos más importantes a considerar y es la base del comportamiento del hormigón armado como elemento estructural. La adherencia debe asegurar el anclaje de las armaduras y transmitir la tensión tangencial que aparece en las mismas como consecuencia de la variación de las solicitaciones a lo largo de un elemento estructural. Como consecuencia de la corrosión de las armaduras, el desarrollo de la adherencia se altera y, por tanto, la transferencia de la tensión longitudinal. Esta Tesis Doctoral aborda el comportamiento en estado límite último de la adherencia en el hormigón estructural con armaduras corroídas. El objetivo principal es la obtención de un modelo suficientemente realista y fiable para la evaluación de la adherencia con armaduras corroídas en el marco de la verificación de la seguridad estructural de elementos de hormigón armado con armaduras corroídas. Para ello se ha llevado a cabo un programa experimental de ensayos tipo pull-out excéntricos, con diferentes probetas, unas sin corrosión y otras sometidas tanto a procesos de corrosión natural como a procesos de corrosión acelerada, con diferentes grados de deterioro. Este tipo de ensayo de adherencia representa de forma realista y fiable realista los esfuerzos de adherencia en la zona de anclaje. Por otra parte, para la realización de estos ensayos se ha puesto a punto, además del procedimiento de ensayo, un sistema de adquisición de datos entre los que se incluye el empleo de sensores de tipo fibra óptica con redes de Bragg embebidos en la armadura para determinar los parámetros representativos de la adherencia en el hormigón estructural con armaduras corroídas. Por otra parte, la recopilación de los datos de los estudios de adherencia con armaduras corroídas procedentes de la literatura científica, además de los resultados de la presente investigación, junto con la identificación de las variables relevantes en el comportamiento de la adherencia con armaduras sanas y corroídas ha servido para la obtención de una formulación realista y fiable para la evaluación conjunta de la adherencia con armaduras sanas y corroídas a partir de modelos de regresión múltiple. La formulación propuesta ha sido validada mediante criterios estadísticos y comparada con otras formulaciones propuestas en la literatura científica. Además se ha realizado un análisis de las variables influyentes de la formulación propuesta. También se ha obtenido un modelo numérico simple y eficiente, validado con alguno de los ensayos realizados en esta tesis, para simular la adherencia con armaduras sanas y corroídas. Finalmente, se presenta un procedimiento para realizar la evaluación de vigas deterioradas por corrosión mediante el método de los campos de tensiones que incluye la evaluación de la adherencia mediante la formulación sugerida en esta Tesis Doctoral. Las conclusiones alcanzadas en este trabajo han permitido evaluar la adherencia con armaduras corroídas de forma realista y fiable. Asimismo, se ha podido incluir la evaluación de la adherencia en el marco de la verificación de la seguridad estructural en elementos de hormigón armado deteriorados por corrosión. ABSTRACT Structural safety verification of both structures allowing a certain degree of deterioration in design and deteriorated existing structures needs strength models that factor in the effects of deterioration. In case of corrosion of steel bars in reinforced concrete structures, the resistance depends on many things such as the remaining cross-section of the corroded reinforcement bars, the stress-strain diagrams of steel, the concrete-reinforcement bond and corrosion-induced concrete cracking or spalling. Accordingly, the force transfer through the contact surface between concrete and reinforcement, bond, is one of the most important aspects to consider and it is the basis of the structural performance of reinforced concrete. Bond must assure anchorage of reinforcement and transmit shear stresses as a consequence of the different stresses along a structural element As a consequence of corrosion, the bond development may be affected and hence the transfer of longitudinal stresses. This PhD Thesis deals with ultimate limit state bond behaviour in structural concrete with corrode steel bars. The main objective is to obtain a realistic and reliable model for the assessment of bond within the context of structural safety verifications of reinforced concrete members with corroded steel bars. In that context, an experimental programme of eccentric pull-out tests were conducted, with different specimens, ones without corrosion and others subjected to accelerated or natural corrosion with different corrosion degrees. This type of bond test reproduces in a realistic and reliable way bond stresses in the anchorage zone. Moreover, for conducting these tests it was necessary to develop both a test procedure and also a data acquisition system including the use of an embedded fibre-optic sensing system with fibre Bragg grating sensors to obtain the representative parameters of bond strength in structural concrete with corroded steel bars. Furthermore, the compilation of data from bond studies with corroded steel bars from scientific literature, including tests conducted in the present study, along with the identification of the relevant variables influencing bond behaviour for both corroded and non-corroded steel bars was used to obtain a realistic and reliable formulation for bond assessment in corroded and non-corroded steel bars by multiple linear regression analysis. The proposed formulation was validated with a number of statistical criteria and compared to other models from scientific literature. Moreover, an analysis of the influencing variables of the proposed formulation has been performed. Also, a simplified and efficient numerical model has been obtained and validated with several tests performed in this PhD Thesis for simulating the bond in corroded and non-corroded steel bars. Finally, a proposal for the assessment of corrosion-damaged beams with stress field models including bond assessment with the proposed formulation is presented. The conclusions raised in this work have allowed a realistic and reliable bond assessment in corroded steel bars. Furthermore, bond assessment has been included within the context of structural safety verifications in corrosion-damaged reinforced concrete elements.
Resumo:
En Portugal, sobre todo en la región de Aveiro, las estructuras de fábrica de adobe fueron el sistema constructivo predominante durante la primera mitad del siglo XX. En la actualidad es aún significativo el legado del patrimonio – cerca de 30% de las construcciones existentes – el cual está formado por un conjunto significativo de construcciones de elevado valor histórico y arquitectónico. En las últimas décadas se ha descuidado su rehabilitación, que ha redundado en el estado actual de daño en muchas de estas construcciones, con desfavorables condiciones de seguridad, y en algunos casos comprometiendo su uso. No obstante, en los últimos años, se observa un creciente interés, asociado a factores ambientales, económicos y de salvaguarda del patrimonio, tanto por parte de las administraciones locales como en el ámbito de los inversores privados, por la conservación y rehabilitación de estas construcciones. Ante esta nueva realidad, que pone de manifiesto la necesidad de desarrollar soluciones y técnicas de intervención que permitan, a través de la rehabilitación y/o refuerzo, prolongar la vida útil de estas estructuras, en la Universidad de Aveiro un grupo de investigadores viene desarrollando un trabajo multidisciplinar sobre las construcciones de adobe en Portugal. El objetivo principal del mismo se centra en la creación de una base de resultados experimentales que apoye las intervenciones de rehabilitación y/o refuerzo del patrimonio edificado, y el desarrollo de soluciones de mejora de su comportamiento estructural. Esta investigación se constituye como un guía que procura contribuir al conocimiento de estas fábricas, enfocado sobre todo a la rehabilitación de las mismas, aportando información que permita a los diferentes profesionales que trabajan en este ámbito actuar en la conservación de este patrimonio
Resumo:
La exposición a altas concentraciones de radón supone un riesgo de desarrollar cáncer de pulmón. El radón de los edificios proviene principalmente del terreno. Por ello, es de gran importancia conocer las soluciones constructivas que supongan una barrera a la entrada de radón del terreno. Una envolvente de hormigón puede funcionar como barrera frente al radón, siempre y cuando reúna una serie de características de entre la que destaca su bajo coeficiente de difusión de radón, que se determina utilizando fuentes radiactivas, con lo que implica en cuanto a seguridad radiológica. En este artículo se presentan las bases para estimar el coeficiente de difusión del radón en el hormigón utilizando resultados empíricos de los coeficientes de difusión y de permeabilidad de gases no radioactivos como el oxígeno. También se presentan resultados de la correlación entre el coeficiente de permeabilidad y difusión del oxígeno.
Resumo:
El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.
Resumo:
Las prestaciones y características de los dispositivos móviles actuales los sitúa a un nivel similar a los ordenadores de escritorio tradicionales en cuanto a funcionalidad y posibilidades de uso, añadiendo además la movilidad y la sensación de pertenencia al usuario que se deriva de ésta. Estas cualidades convierten a las plataformas móviles de computación en verdaderos ordenadores personales, y cada día es más popular su utilización en ámbitos distintos del ocio y las comunicaciones propiamente dichas, pasando a convertirse en herramientas de apoyo a la productividad también en el entorno profesional y corporativo. La utilización del dispositivo móvil como parte de una infraestructura de telecomunicaciones da lugar a nuevas expresiones de problemas clásicos de gestión y seguridad. Para tratar de abordarlos con la flexibilidad y la escalabilidad necesarias se plantean alternativas novedosas que parten de enfoques originales a estos problemas, como las ideas y conceptos que se engloban en la filosofía del Control de Acceso a la Red (Network Access Control, o NAC). La mayoría de los planteamientos de NAC se basan, en el ámbito de la seguridad, en comprobar ciertas características del dispositivo móvil para tratar de determinar hasta qué punto puede éste suponer una amenaza para los recursos de la red u otros usuarios de la misma. Obtener esta información de forma fiable resulta extremadamente difícil si se caracteriza el dispositivo mediante un modelo de caja blanca, muy adecuado dada la apertura propia de los sistemas operativos móviles actuales, muy diferentes de los de antaño, y la ausencia de un marco de seguridad efectivo en ellos. Este trabajo explora el Estado de la Técnica en este ámbito de investigación y plantea diferentes propuestas orientadas a cubrir las deficiencias de las soluciones propuestas hasta el momento y a satisfacer los estrictos requisitos de seguridad que se derivan de la aplicación del modelo de caja blanca, materializándose en última instancia en la definición de un mecanismo de evaluación de características arbitrarias de un cierto dispositivo móvil basado en Entornos Seguros de Ejecución (Trusted Execution Environments, o TEEs) con elevadas garantías de seguridad compatible con los planteamientos actuales de NAC. ABSTRACT The performance and features of today’s mobile devices make them able to compete with traditional desktop computers in terms of functionality and possible usages. In addition to this, they sport mobility and the stronger sense of ownership that derives from it. These attributes change mobile computation platforms into truly personal computers, allowing them to be used not only for leisure or as mere communications devices, but also as supports of productivity in professional and corporative environments. The utilization of mobile devices as part of a telecommunications infrastructure brings new expressions of classic management and security problems with it. In order to tackle them with appropriate flexibility and scalability, new alternatives are proposed based on original approaches to these problems, such as the concepts and ideas behind the philosophy of Network Access Control (NAC). The vast majority of NAC proposals are based, security-wise, on checking certain mobile device’s properties in order to evaluate how probable it is for it to become a threat for network resources or even other users of the infrastructure. Obtaining this information in a reliable and trustworthy way is extremely difficult if the device is characterized using a white-box model, which is the most appropriate if the openness of today’s mobile operating systems, very different from former ones, and the absence of an effective security framework are taken into account. This work explores the State of the Art related with the aforementioned field of research and presents different proposals targeted to overcome the deficiencies of current solutions and satisfy the strict security requirements derived from the application of the white box model. These proposals are ultimately materialized in the definition of a high-security evaluation procedure of arbitrary properties of a given mobile device based on Trusted Execution Environments (TEEs) which is compatible with modern NAC approaches.
Resumo:
Los accidentes con implicación de autocares en los que se producen vuelcos ponen de manifiesto la especial agresividad de los mismos, como lo confirman las estadísticas. Como medida para mejorar la seguridad de los Vehículos de Grandes Dimensiones para el Transporte de Pasajeros (V.G.D.T.P.) frente a vuelco fue aprobado por las Naciones Unidas el Reglamento Nº 66 de Ginebra. Este reglamento establece los requisitos mínimos que las estructuras de los vehículos de grandes dimensiones deben cumplir con respecto a vuelco. El reglamento 66 ha supuesto un paso adelante muy importante en relación con la seguridad de los autocares, puesto que especifica por primera vez requerimientos estructurales a este tipo de vehículos, y en general ha supuesto una mejora del vehículo . Por otro lado, a consecuencia de la obligatoriedad de instalación de cinturones de seguridad, existe una unión entre pasajeros y vehículo, pero como no se trata de una unión rígida, hay que contemplar el porcentaje de la masa de los ocupantes que influye en la absorción de energía de la estructura. Además la retención de los ocupantes con cinturones de seguridad influye en la energía a absorber por la estructura del vehículo en dos aspectos, por un lado aumenta la masa del vehículo y en el otro se incrementa la altura el centro de gravedad. Esta situación a conducido a elaborar por parte de las Naciones Unidas la revisión 01 del Reglamento 66, en el que se considera que el 50 % de la masa total de los pasajeros posee una unión rígida con la estructura del vehículo, y por lo tanto debe ser tenida en cuenta si el vehículo posee sistemas de retención. En la situación actual, con limitaciones de peso del vehículo y peso por eje, los elementos de confort, seguridad y espacio para maleteros contribuyen a aumentar el peso del vehículo. Esto unido a la dificultad de introducción de cambios radicales en la concepción actual de fabricación de este tipo de vehículos por suponer unas pérdidas importantes para los fabricantes existentes, tanto en su conocimiento del producto como en su metodología de proceso, conlleva la necesidad cada vez más agobiante de analizar y evaluar otras alternativas estructurales que sin suponer grandes revoluciones a los productos actualmente en fabricación los complementen permitiendo adaptarse a los nuevos requerimientos en seguridad. Recientes desarrollos en la relación costo-beneficio de los procesos para la producción de materiales celulares metálicos de baja densidad, tales como las espumas metálicas, los posiciona como una alternativa de especial interés para la aplicación como elementos de absorción de energía para reforzar estructuras. El relleno con espumas metálicas puede ser más eficiente en términos de optimización de peso comparado con el aumento de espesor de los perfiles estructurales, dado que la absorción de energía se produce en una fracción relativamente pequeña de los perfiles, en las denominadas rótulas plásticas. La aplicación de espumas de relleno metálicas en estructuras de vehículos se está empezando a emplear en determinadas zonas de los vehículos de turismo, siendo totalmente novedosa cualquier intento de aplicación en estructuras de autobuses y autocares. Conforme a lo expuesto, y con el objeto de resolver estos problemas, se ha elaborado el presente trabajo de tesis doctoral, cuyos objetivos son: -Desarrollar un modelo matemático, que permita simular el ensayo de vuelco, considerando la influencia de los ocupantes retenidos con cinturones de seguridad para evaluar su influencia en la absorción de energía de la estructura. -Validar el modelo matemático de vuelco de la estructura mediante ensayos de secciones representativas de la estructura del vehículo y mediante el ensayo de un vehículo completo. -Realizar un estudio de las propiedades de las espumas metálicas que permitan incorporarlas como elemento de absorción de energía en el relleno de componentes de la superestructura de autobuses y autocares. -Desarrollar un modelo matemático para evaluar el aporte del relleno de espuma metálica en la absorción de energía ante solicitaciones por flexión estática y dinámica en componentes de la superestructura de autobuses o autocares. -Realizar un programa de ensayos a flexión estáticos y dinámicos para validar el modelo matemático del aporte del relleno de espuma metálica sobre componentes de la superestructura de autobuses y autocares. . -Incorporar al modelo matemático de vuelco de la estructura, los resultados obtenidos sobre componentes con relleno de espuma metálica, para evaluar el aporte en la absorción de energía. -Validar el modelo de vuelco de la estructura del autobús o autocar con relleno de espuma metálica, mediante ensayos de secciones de carrocería. ABSTRACT Accidents involving buses in which rollovers occur reveal the special aggressiveness thereof, as the statistics prove. As a measure to improve the safety of large vehicles for the transport of passengers to rollover, Regulation 66 of Geneva was approved by the United Nations. This regulation establishes the minimum requirements that structures of large vehicles must comply with respect to rollovers. The regulation 66 has been a major step forward in relation to the safety of coaches, since it specifies structural requirements to such vehicles and has been an improvement for the vehicle. In turn, as a result of compulsory installation of safety belts, there is contact between passengers and vehicle, but as it is not a rigid connection we must contemplate the percentage of the mass of the occupants that impacts on the energy absorption of the structure. Thus, the passengers’ restraining modifies the energy to absorb by the vehicle in two different aspects: On the one hand, it increases the vehicle weight and on the other the height of the center of gravity. This circumstance has taken the United Nations to elaborate Revision 01 of Regulation 66, in which it is considered that the 50 percent of passengers’ mass has a rigid joint together with the vehicle structure and, therefore, the passengers’ mass mentioned above should be highly considered if the vehicle has seat belts. In the present situation, in which limitations in vehicle weight and weight in axles are stricter, elements of comfort, safety and space for baggage are contributing to increase the weight of the vehicle. This coupled with the difficulty of introducing radical changes in the current conception of manufacturing such vehicles pose significant losses for existing manufacturers, both in product knowledge and process methodology, entails the overwhelming need to analyze and evaluate other structural alternatives without assuming relevant modifications on the products manufactured currently allowing them to adapt to the new safety requirements. Recent developments in cost-benefit processes for the production of metallic foams of low density, such as metal foams, place them as an alternative of special interest to be used as energy absorbers to strengthen structures. The filling with metal foams can be more efficient in terms of weight optimization compared with increasing thickness of the structural beams, since the energy absorption occurs in a relatively small fraction of the beams, called plastic hinges. The application of metal filling foams in vehicle structures is beginning to be used in certain areas of passenger cars, being an innovative opportunity in structures for application in buses and coaches. According to the mentioned before, and in order to come forward with a solution, this doctoral thesis has been prepared and its objectives are: - Develop a mathematical model to simulate the rollover test, considering the influence of the occupants held with seat belts to assess their influence on energy absorption structure. - Validate the mathematical model of the structure rollover by testing representative sections of the vehicle structure and by testing a complete vehicle. - Conduct a study of the properties of metal foams as possible incorporation of energy absorbing element in the filler component of the superstructure of buses and coaches. - Elaborate a mathematical model to assess the contribution of the metal foam filling in absorbing energy for static and dynamic bending loads on the components of buses or coaches superstructure. - Conduct a static and dynamic bending test program to validate the mathematical model of contribution of metal foam filling on components of the superstructure of buses and coaches bending. - To incorporate into the mathematical model of structure rollover, the results obtained on components filled with metal foam, to evaluate the contribution to the energy absorption. - Validate the rollover model structure of the bus or coach filled with metal foam through tests of bay sections. The objectives in this thesis have been achieved successfully. The contribution calculation model with metal foam filling in the vehicle structure has revealed that the filling with metal foam is more efficient than increasing thickness of the beams, as demonstrated in the experimental validation of bay sections.
Resumo:
La presente tesis se presenta como un continuo de investigaciones realizadas durante el proceso de desarrollo del Doctorado en torno al tema de la Participación Ciudadana en la Gestión Urbana Local. El Objetivo general de la tesis es verificar y evaluar la existencia de una planificación participativa en la gestión urbana local en Chile. Los objetivos específicos abordan los factores clave que facilitan y restringen los procesos participativos en la gestión urbana local, la factibilidad de desarrollar nuevas formas de participación en el medio local y los avances que se han registrado o no en materia de planificación y gestión participativa en Chile. La Metodología planteada es de tipo cualitativa y se centra en el estudio del caso: la RED de Alcaldías Pro-Participación del Área Metropolitana de Santiago. Se utilizan diversos instrumentos metodológicos básicamente cualitativos donde destaca la utilización de la Transparencia Activa con 2 consultas a los 13 municipios, entrevistas a los Directores de la Secretaría de Planificación, SECPLA, a Encargados de las Unidades de Participación y con algunos Asesores Urbanos. Paralelamente en el segundo semestre del año 2013 se llevo a cabo una observación directa de los cabildos territoriales realizados en el marco del proceso de actualización del Plan de Desarrollo Comunal. Por último se realizó un Focus Group con integrantes de los Consejos de la Sociedad Civil de modo de complementar los resultados de las entrevistas y las consultas a los municipios. Todo lo anterior complementado con una revisión documental en relación a la conceptualización de la participación, los tipos de participación, los actores que intervienen en el proceso y los mecanismos o herramientas que hacen posible el desarrollo de estos procesos. Finalmente los resultados esperados, en el marco de los objetivos y las hipótesis planteadas estaban básicamente enfocados en los desafíos que impone llevar adelante una gestión más participativa y transparente. ABSTRACT This thesis is presented as a continuum of the research conducted during the development of the doctorate process on the subject of Citizen Participation in Local Urban Management. Initially referring to the more specific field of urban planning and in this case in the more general context of local planning. The overall aim of the thesis is to verify and assess the existence of participatory planning in local urban management in Chile. The specific objectives address the key factors that facilitate and constrain participatory processes in local urban management, the feasibility of developing new forms of participation in the local environment and the progress that has been registered or not in participatory planning and management in Chile. The proposed methodology is a qualitative approach and focuses on the case study: A Pro-Participation mayors of Greater Santiago. Basically using different qualitative methodological tools which highlights the use of Active Transparency with 2 consultations to the 13 municipalities, interviews with the directors of the Planning Office, SECPLAN, directors or managers of Participation Units in those municipalities that had created one and some professionals in charge of the Urban Office. Parallel to those methodological tools in the second half of 2013 was held a direct observation of the territorial councils (Caboildos Territoriales) made under the PLADECO update process. Finally, a focus group was held with members of the Civil Society Council, COSOC that will complement the results of interviews and consultations with municipalities. All this with tools in the context of a review of documents related to the conceptualization of participation, types of participation, the actors involved in the process and the mechanisms and tools that make possible these participatory processes. Finally the expected results within the framework of the objectives and hypotheses were basically focused on identifying the elements that facilitate or constrain participatory processes and identify accordingly the challenges posed pursue a more participatory and transparent management.
Resumo:
Dentro del equipamiento que existen en los hospitales, se realizan muy diversas actuaciones para el correcto funcionamiento de los equipos que se destinan, tanto a medir sobre el paciente o para tratamiento sobre estos mismos, el abanico de equipos que existen es muy grande, sin contar con los que directamente se instalan o, más correctamente, se implantan en el paciente. Los hospitales tienen establecidas pautas de mantenimiento tanto correctivo como preventivo, también de verificación relativa a seguridad y, en algunos casos, acciones que van destinadas a comprobar las magnitudes en los equipos. Esto último no es lo normal, de hecho, en muchos casos, la mayoría, se desconoce cómo poder comprobar que las magnitudes de un equipo se pueden trazar a un patrón de medida nacional. La investigación se ha desarrollado para determinar, siendo algo que esta patente hasta en la normalización ISO, que no existen para muchos equipos principios establecidos para garantizar la trazabilidad metrológica da las magnitudes físicas en las que trabaja durante su vida útil. Debido a la amplitud de este campo, el desarrollo de investigación se ha llevado en un formato piramidal, desde las necesidades para poder llegar a un estudio concreto de equipos concretos (Termómetros Clínicos, Tensiómetros, Ultrasonidos y Onda Corta). Para llegar a estos se ha realizado un estudio de cómo se encuentra la trazabilidad metrológica en todo el espectro, desde la gestión hasta llegar a casos particulares. Estudiando la gran cantidad de documentación existente y llegando a determinar el campo de trabajo en la metrología hospitalaria, clasificando los equipos y determinando como se encuentran definidos los métodos que llevan a realidad la trazabilidad metrológica, en la normalización. Un grupo no muy trabajado de los equipos electromédicos son los que se encuentran dentro de los tratamientos de Rehabilitación de traumatología, siendo equipos de uso muy habitual en los centros de salud para las lesiones musculares y óseas. A este asunto se ha dedicado un esfuerzo extra, con un reporte histórico de su origen y en qué punto se encuentran ahora. Se han estudiado dentro de estos equipos los de tratamiento de ultrasonidos, de diatermia y onda corta, que son los más representativos de los equipos destinados a electro terapia, pero hay que tener en cuenta que hay campos que se han mencionado globalmente de la rehabilitación, como son la terapia o la biomecánica, de forma similar a otras tecnologías sanitarias de otras especialidades (radiología o análisis clínico). Hay, también, dentro de la terapia, todos esos tratamientos propios de gimnasio, como son poleas, pesas, mesas de masajes, balones, etc… Que su metrología es sencilla, son equipos que existen medios de comprobación de las magnitudes que utilizan por la existencia en otras actividades de la industria (balanzas, pesas, etc). La investigación realizada ha pretendido evaluar todo el global y llegar a casos concretos para determinar cómo está la situación. Llegando a desarrollar una clasificación de equipos y de normas, que permiten vislumbrar las necesidades metrológicas y permitiría establecer una Gestión de la Trazabilidad Metrológica, concluyendo en el estudio para los equipos que se han mencionado. ABSTRACT Within the equipment that exist in the hospitals, there are very diverse performances for the correct operation of the equipment that is intended both to measure on the patient or for treatment on these same, the range of equipment available is very large, without which directly are installed or, more correctly, are implanted in the patient. The hospitals have established patterns of maintenance both corrective and preventive, also of verification of security and, in some cases, actions which are intended to check the magnitudes in the equipment. This last is not normal, in fact, in many cases, the majority, it is not known as to be able to check that the magnitudes of a computer can be traced to a pattern of national measure. The research has been developed to determine, is something that this patent up to the International Organization for Standardization (ISO), that do not exist for many teams established principles to ensure the metrological traceability gives the physical quantities in which they work during its useful life. Due to the breadth of this field, the development of research has been conducted in a pyramid format, from the needs to be able to reach a specific study of specific equipment (Clinical Thermometers, Tensiometers, Ultrasound, and Short Wave). To reach theme, has been carried out a study of how is the metrological traceability across the entire spectrum, from the management to individuals cases. Considering the large amount of existing documentation and arriving to determine the labor camp in the metrology hospital, sorting equipment and determining how are defined the methods that lead to reality the metrological traceability, in the standardization. A group not too worked for medical electrical equipment are found within the rehabilitation treatment of traumatology, being equipment of very common use in the health centers for muscle injuries and bone. In this matter has been dedicated an extra effort, with a report history of its origin and where they are now. We have studied within these teams about the treatment of ultrasound, diathermy, short wave, which are the most representative of the equipment that is destined to electro therapy, but it must be borne in mind that there are fields that have been mentioned globally of rehabilitation, as are the therapy or the biomechanics, similar to other health technologies from other specialties (radiology or clinical analysis). There is, also, within the therapy, all these treatments own gym, such as pulleys, weights, tables of massages, balls, etc… that its metrology is simple, are computers that there are means of verification of the magnitudes that used by the existence in other activities of the industry (scales, weights, etc). The research carried out has tried to assess the entire global and reach specific cases to determine the situation as it is. Arriving in the development of a classification of equipment and standards, which give us a glimpse of the metrological needs and establish a Management of the Metrological Traceability, concluding in the study for computers that have been mentioned.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
El movimiento mexicano #YoSoy132 ha supuesto un desafío para el sistema político mexicano y de esa misma manera ha sido abordado en este trabajo de investigación. Siendo el primer movimiento social que tiene como base la dinámica de la comunicación y redes digitales en México, ha presentado una serie de características estructurales que rompieron con las concepciones y los paradigmas preexistentes sobre movilización y participación ciudadana. México ha vivido desde hace 18 años1 un proceso de cambio acelerado en su sistema político. A la par, un cambio cultural se gestó a favor de una ciudadanía con un rol cada vez más significativo en el proceso político del país. Con la llegada del nuevo siglo y la emergencia de una conciencia ciudadana, más comprometida y activa, proliferan también las redes sociales digitales, que proporcionaban las bases para favorecer e impulsar la participación ciudadana en las diversas esferas de la vida pública del país. En este contexto surge el movimiento social #YoSoy132, en el marco de una campaña electoral protagonizada por el candidato del PRI, Enrique Peña Nieto y el oligopolio televisivo, quienes, en una suma de poder, habían edificado sobre la desilusión social, su estrategia para recuperar la presidencia de la república y la mayoría en el Congreso Federal; y que al mismo tiempo, se conjugaba con un contexto internacional protagonizado por movilizaciones y revueltas sociales juveniles en distintas partes del mundo, potenciadas sobre todo por el uso del Internet y las redes sociales...
Resumo:
Las medidas del gas radiactivo radón en lugares de trabajo subterráneos del Campus de la Universidad de Alicante fueron realizadas mediante dispositivos E-PERM® de corto plazo durante el invierno de 2010 y el verano de 2011. Las concentraciones de radón obtenidas muestran valores máximos de 73,8 Bq/m3 en invierno y 84,0 Bq/m3 en verano, así como una media aritmética de 30,3 Bq/m3. Aunque no se abordan concentraciones medias anuales, todos los resultados se encuentran por debajo de los valores recogidos en la Recomendación 90/143/EURATOM de la Comisión Europea relativa a la protección de la población contra los peligros de una exposición al radón en el interior de edificios así como los establecidos por la Instrucción IS-33 del Consejo de Seguridad Nuclear en lugares de trabajo, contribuyendo a la evaluación de la distribución de radón a nivel nacional y prestando atención a los problemas que este gas puede ocasionar en espacios subterráneos.