1000 resultados para seguridad del tráfico
Resumo:
La figura del Coordinador de seguridad y salud, como técnico necesario y competente dentro de la actividad edificatoria, surge en España el día 25 de diciembre de 1997, dos meses después de la publicación del Real Decreto 1627/1997, de 24 de octubre, por el que se establecen las disposiciones mínimas de seguridad y salud en las obras de construcción (BOE sábado 25 de octubre de 1997). Dicha figura proviene de la trasposición española de la Directiva 92/57/CEE y como en nuestro país, los diferentes estados miembros de la Unión Europea la introducen en su sector de la construcción de diferentes maneras. Desde su concreta aparición ya han transcurrido casi dieciocho años. Esta “mayoría de edad” relativa a la presencia de los coordinadores dentro de las obras, puede considerarse ya un plazo suficiente, para detenerse y efectuar un estudio desde los diferentes puntos de vista que afectan a dicha figura. Se pretende con el presente estudio optimizar integralmente dicha figura. Para ello se estudia su situación actual en nuestro país. De dicho estudio se establece la estructura de la figura del coordinador, definida en cinco apartados que cubren todos sus aspectos. Junto con el estudio de los mismos, se realizan otros análisis en relación con su funcionamiento en nuestro entorno inmediato (los diferentes miembros de la UE-28), así como otros determinados a definir aspectos necesarios para evaluar su implantación, gestión y responsabilidades adquiridas por los técnicos coordinadores de seguridad en España, a través de su actividad desarrollada tras los dieciocho años de implantación. Completa el estudio su actualidad inmediata y se focaliza en un entorno suficiente para determinar su utilidad. Todo ello, con la finalidad de elevar unas conclusiones que unidas a las necesarias propuestas de actuación, nos permitan concretar la optimización de la figura estudiada. ABSTRACT The figure of the Safety and Health Coordinator, both as a necessary and competent technician within the building activity, was established in Spain on December 25th, 1997, just two months after the publishing of the Real Decreto (Royal Decree) 1627/1997 of 24 October, which implemented the minimum requirements for safety and health in construction sites (BOE Saturday, October 25, 1997). The above mentioned figure develops from the Spanish transposition of Directive 92/57/EEC. And as it has happened in Spain, the rest of the EU members have implemented it in the construction sector in various ways. Almost eighteen years have passed since its enactment. This lapse of time can be considered satisfactory to stop at this point and carry out a study on this new position in construction sites but taking into account different points of view that affect it. The present dissertation attempts to fully optimize the figure of the Safety and Health Coordinator by undertaking a research of its current situation in Spain. This study establishes the organizational structure of the Coordinator’s figure, covering all its aspects in five main headings. Alongside with the study of these five sections, further analyses have been carried out in relation to their performance in our immediate surroundings (the research has been extended to different members of the EU-28). Likewise, different studies have been made to determine the necessary aspects to assess the implementation, management and responsibilities acquired by these Safety and Health Coordinators throughout the last eighteen years. This study is completed with the immediate present and focuses on assess and determine its utility in the future. All this with the aim of raising some conclusions that along with the necessary proposals for action, will allow us to achieve the optimization of the studied figure.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
La presente investigación aborda el análisis de las cualidades del entorno urbano que inciden en la experiencia perceptiva de su recorrido. Los intereses que la motivan tienen que ver con la recuperación de la ciudad para el viandante y se sitúa dentro de un marco de intereses más amplio como es el de la ciudad sostenible. En primer lugar, se contextualiza el tema de la experiencia del recorrido a través de disciplinas diferentes como son el cine, la literatura, la arquitectura, el urbanismo, la arquitectura del paisaje, la psicología y la estética ambiental. De este modo, se refuerza el argumento en torno al papel que desempeñan la forma y otros estímulos sensoriales en la experiencia del espacio, ya sea éste urbano, arquitectónico o natural. La experiencia que las personas viven al desplazarse por un entorno viene definida por infinitos factores que van desde la configuración física del entorno recorrido, hasta el aprendizaje cultural de la persona que camina; desde los estímulos sensoriales que se reciben, hasta las condiciones físicas que posibilitan la funcionalidad del recorrido; desde las sutilezas de índole secuencial que se desvelan a medida que avanzamos, hasta las condiciones higrotérmicas en el momento en que se lleva a cabo el desplazamiento. Sin embargo, factores como las motivaciones y atenciones personales del que anda, así como sus recuerdos de experiencias anteriores, deseos, imaginación y estado de ánimo, también definen nuestra experiencia al caminar que, indudablemente, se encuentra ligada a nuestra personalidad y, por lo tanto, no puede ser exacta a la de otra persona. Conscientes de que todos estos factores se funden en un fenómeno global, y que no se dan en la vida por separado, nos hemos esforzado por independizar las cualidades sensoriales y formales, únicamente a efectos de investigación. La importancia del tema a investigar reside en las conexiones que existen entre las cualidades del medio construido y la experiencia cotidiana de su recorrido, en la medida en que dicha vinculación establece relaciones con la calidad de vida, la salud de los ciudadanos y sus sentimientos de identidad. En este sentido, el problema clave encontrado es que si la definición de la experiencia del recorrido urbano es demasiado amplia, se vuelve nebulosa e inoperativa, pero si se precisa demasiado, se pueden excluir variables importantes. Hemos concentrado nuestros esfuerzos en buscar un medio que permita hacer operativo el estudio de aspectos que, por su propia naturaleza, son difíciles de controlar y aplicar en la práctica. En este sentido, el campo de estudio que aúna interés en el tema, producción científica y vocación práctica, es el de la caminabilidad de las ciudades. Por esta razón, hemos situado nuestro trabajo dentro del marco de criterios que este campo establece para valorar un entorno caminable. Sin embargo, hemos detectado que los trabajos sobre caminabilidad tienden a desarrollarse dentro de la disciplina del planeamiento de transporte y, con frecuencia, siguiendo las mismas pautas que la investigación sobre el transporte motorizado. Además, la tendencia a proporcionar datos numéricos producto de la medición controlada de variables, para respaldar iniciativas dentro de los ámbitos de toma de decisiones, lleva consigo un progresivo alejamiento de los aspectos más sutiles y próximos de la experiencia de las personas y la especificidad de los lugares. Por estas razones, hemos estimado necesario profundizar en la experiencia peatonal explorando otras líneas de trabajo como son la habitabilidad de las ciudades, políticas llevadas a cabo para mejorar la calidad del espacio público o las certificaciones de sostenibilidad en el ámbito del urbanismo. También se han estudiado las aproximaciones gráficas a la representación y simulación de recorridos urbanos por su importancia en la comunicación y promoción de caminar. Para detectar las problemáticas implicadas en la definición de una herramienta que permita valorar, de manera operativa, la calidad de la experiencia del recorrido urbano, la metodología de valoración propuesta se ha basado en la combinación de distintos métodos y en la conjugación de tres aproximaciones: valoración por parte del investigador en calidad de experto, valoración realizada por el investigador en el papel de usuario y valoración por el ciudadano. El desarrollo de esta investigación se ha visto condicionado por la intención de aplicar lo estudiado en un caso práctico. El marco de criterios que los trabajos sobre caminabilidad de las ciudades establecen para que se dé un entorno caminable, se puede resumir en que concurran los siguientes factores: mezcla de usos, densidad de población y edificación relativamente altas, destinos públicos accesibles a pie, un alto grado de seguridad con respecto al tráfico y actos delictivos, alta funcionalidad (dimensiones, pendientes, etc.) y atractivo. Una vez definido el modelo de ciudad en que es pertinente realizar una investigación sobre las cualidades del entorno urbano responsables de que éste se perciba como atractivo, se escogió la ciudad de Taipei, entre otras razones, por cumplir con los requisitos restantes. Con respecto al caso práctico, el objetivo es detectar fortalezas y debilidades del área central de la ciudad de Taipei en cuanto a la experiencia perceptiva que proporciona a los viandantes. ABSTRACT This research addresses the analysis of the qualities of the urban environment that affect the perceptual experience of walking. The interests lying behind it are related to the recovery of the city for pedestrians, and is framed within the sustainable city framework of interests. Firstly, the issue of the experience of walking is contextualized through different disciplines such as film, literature, architecture, urban planning, landscape architecture, environmental psychology and aesthetics. This way, the argument about the role that form and other sensory stimuli play in the experience of space, whether it is urban, architectural or natural, is strengthened. The walking experience of people is defined by factors ranging from the physical configuration of the environment to the cultural background of the person who walks, from the sensory stimuli that are perceived to the physical conditions that enable the functionality of the walk, from the subtleties of sequential nature that are revealed as we move around to hygrothermal conditions at the specific time of walking. Nevertheless, factors such as personal motivations and attentions of the walker, as well as memories of past experiences, desires, imagination and mood, also define our walking experience that is undoubtedly linked to our personality and, therefore, it cannot be exactly the same as other people's experience. Being aware that all these factors come together in a total phenomenon and that, in real life, they do not exist separately, we focused on separating sensory and formal qualities only for research purposes. The importance of the research topic lies in the connections between the qualities of the built environment and the quotidian experience of walking through it, to the extent that such link establishes relationships with the quality of life, health and feelings of identity of citizens. In this sense, the key problem encountered is that, if the definition of urban walking experience is too broad, it becomes nebulous and non‐operational, but if it is too precise, important variables can be excluded. We concentrated our efforts on finding a way to operationalize the study of questions that, by their very nature, are difficult to control and apply in practice. In this regard, the field of study that combines interest in the topic, scientific production and practical purpose, is the walkability of cities. For this reason, we placed our work within the framework of the set of criteria that this field establishes for assessing an environment as walkable. However, we found that works on walkability tend to be developed within the discipline of transportation planning and often following the same guidelines that research on motorized transport. Furthermore, the tendency to provide numerical data as a result of the controlled measurement of variables in order to support initiatives in decision making areas, involves a progressive distancing from the proximity and the most subtle aspects of the experience of people, and from the specificity of places. For these reasons, we considered it was necessary to deepen into the study of pedestrians experience, by exploring other lines of work such as the livability of cities, implemented policies to improve the quality of the public space or sustainability certifications in urbanism. Graphic representation and simulation of urban walks are also studied due to their important role in communication and promotion of walking. In order to find the issues involved in defining a tool to assess, in an operational way, the quality of urban walking experience, the proposed assessment methodology is based on the combination of different methods and the synthesis of three approaches: assessment by the researcher as expert, assessment by the researcher playing the role of user and assessment by the citizens. The development of this research has been conditioned by our intention of applying it in a case study. The framework of criteria that works on walkability of cities set to define a walkable environment, can be summarized in the following factors: mix of uses, population and building density rather high, public destinations accessible on foot, high levels of safety in terms of traffic and crime, high functionality (dimensions, slopes, etc.) and attractiveness. After defining the model of city in which it is relevant to conduct an investigation on the qualities that are responsible of the attractiveness of the environment; Taipei City was selected because it meets the remaining requirements, among other reasons. Regarding the case study, the goal is to identify strengths and weaknesses in the central area of Taipei City in terms of the perceptual experience of pedestrians.
Resumo:
En el presente trabajo, se ha realizado un análisis de la evolución del mercado gasista en España en los últimos años atendiendo a distintos marcos; comercial, operativo y legal. El pasado 22 de mayo de 2015 se publicó en el Boletín Oficial del Estado una modificación del artículo 58 de la Ley de Hidrocarburos 34-1998, en la que se autoriza al gobierno mediante la Corporación de Reservas de Productos Petrolíferos a ser la entidad que tenga por objeto la constitución, mantenimiento y gestión de las existencias de carácter estratégico de gas natural. En áreas del cumplimiento de dicho artículo, se ha hecho una simulación, de la compra e inyección de gas natural por parte de la corporación y se ha hecho una estimación de los costes totales que tendría la operación.
Resumo:
El ESP es uno de los sistemas de seguridad de los coches más eficientes. Su objetivo fundamental es reducir la probabilidad de que perdamos el control del vehículo en ciertas maniobras, como esquivar un obstáculo, o si entramos con exceso de velocidad en una curva. Un sistema de seguridad que puede salvar vidas.
Resumo:
El objetivo principal de esta investigación es contribuir al debate académico sobre la problemática de seguridad/inseguridad que afecta a los Estados árabes de Oriente Medio, indagando sobre sus causas y reflexionando sobre sus consecuencias desde el enfoque de los estudios de seguridad y, más concretamente, desde la corriente que aborda la cuestión de la seguridad en el Tercer Mundo. Una perspectiva novedosa tanto desde el punto de vista de las investigaciones llevadas a cabo en nuestro país sobre la región de Oriente Medio, como de las investigaciones existentes en lengua árabe. El punto de partida de nuestra investigación consiste en cuestionar la capacidad explicativa de las teorías tradicionales y dominantes de seguridad al ser aplicadas al análisis de la seguridad nacional en el contexto particular del Tercer Mundo y, como parte de este, al mundo árabe en general. En nuestra opinión, este enfoque tradicional no permite entender las causas de la inestabilidad permanente que azota el Oriente Medio, al no conseguir captar la naturaleza esencial de dicha problemática. La razón fundamental es que los estudios de seguridad surgieron para explicar y dar respuesta a los problemas de la seguridad occidental. Aplicar indiscriminadamente los postulados de la definición de seguridad dominante a cualquier escenario no sólo limita enormemente el alcance del análisis, sino que distorsiona la realidad objeto de estudio. Esta limitación es aplicable también al explicar el escenario de inestabilidad e inseguridad del Oriente Medio. Con el propósito de abordar el vacío existente dentro de los estudios de seguridad relativos a la problemática de la seguridad en el Tercer Mundo, y de poder llegar a entender lo que no alcanzan a explicar las teorías clásicas sobre seguridad surge la corriente del Realismo Subalterno. Dentro del marco de la teoría realista, el Realismo Subalterno no se ha limitado únicamente a ser una manifestación más de contestación del concepto de seguridad tradicional, sino que se presenta como un instrumento analítico alternativo a los paradigmas y teorías dominantes sobre seguridad –tanto de la concepción realista tradicional como de los nuevos intentos de revisión del concepto-. Una perspectiva útil para explicar problemas contemporáneos de seguridad frente a la insuficiente capacidad de las teorías de seguridad clásicas, especialmente frente a los nuevos desafíos surgidos tras el final de la Guerra Fría...
Resumo:
El contrato de maternidad subrogada está declarado nulo de pleno derecho en España en base a la Ley 14/2006 referida a las Técnicas de Reproducción Humana Asistida. En primer lugar, afrontaremos el problema del reconocimiento de la inscripción de la filiación de los menores nacidos por esta técnica, para luego, con el fin de analizar el tema objeto de este trabajo, estudiar si existe derecho a las prestaciones por maternidad en el supuesto de la maternidad subrogada. De esta manera, tras un análisis de la doctrina científica y jurisprudencial, exponemos la necesidad de regulación del contrato de maternidad subrogada en España.
Resumo:
Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.
Resumo:
El consumidor actual, cada vez más concienciado de la estrecha relación entre la alimentación y la salud, busca alimentos mínimamente procesados, apetecibles, de fácil consumo y con propiedades funcionales. En este sentido, las bebidas refrescantes mixtas y los smoothies suponen una opción para satisfacer estas necesidades. Además, la aplicación de tecnologías de conservación alternativas a la pasteurización tradicional, entre las que destacan las altas presiones hidrostáticas, constituye una revolución en la industria alimentaria, al obtenerse productos seguros que conservan las características funcionales, nutricionales y sensoriales de los alimentos frescos. El objetivo principal de esta Tesis Doctoral consiste en la evaluación del efecto de las altas presiones hidrostáticas aplicadas a smoothies elaborados con leche de vaca y leche de soja así como su modificación durante la vida comercial, bajo la premisa de tratarse de una tecnología más idónea que la tradicional pasteurización con que se procesan los zumos y las bebidas refrescantes mixtas. El fin último es alcanzar un mayor grado de conocimiento en relación a estos nuevos productos y procesos con objeto de establecer futuras guías de normalización, ya que en la actualidad el reconocimiento legal no es claro ni preciso. Previamente se lleva a cabo un estudio de mercado y caracterización de veinticuatro bebidas refrescantes mixtas comerciales a base de fruta y leche o soja como base sobre la que desarrollar las formulaciones de smoothies. Para evaluar el efecto de las altas presiones se desarrollaron dos prototipos de smoothies mixtos con productos vegetales (naranja, papaya, melón y zanahoria) por su aporte de compuestos bioactivos con elevado potencial saludable, a los que se les añadió leche de vaca o leche de soja. Las bebidas elaboradas con leche de vaca fueron sometidas a dos intensidades de presión: 450 y 600 MPa, y las formuladas con leche de soja a 550 y 650 MPa. En todos los casos el tiempo y temperatura se mantuvieron constantes: 3 minutos y 20 ºC. Para comparar el impacto del tratamiento y del almacenamiento sobre las características evaluadas, los smoothies se sometieron paralelamente a un proceso convencional de pasteurización térmica a 80 ºC durante 3 minutos. También se ha considerado el efecto del almacenamiento en refrigeración a 4 ºC a lo largo de 45 días...
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Certifica la copia Manuel de Aizpun y Redin.
Resumo:
Mode of access: Internet.
Resumo:
Carta enciclica de Nuestro S. S. Padre Benedicto ... Papa XIV a los Patriarcas, Arzobispos y Ordinarios de Italia : p. 351-378, con texto paralelo latin español y pie de imp. : "En Roma : en la Imprenta de la Rev. Cámara Apostólica, 1745"
Resumo:
La Resolución 1325 del Consejo de Seguridad de las Naciones Unidas marca un hito en los derechos humanos de las mujeres, la paz y la seguridad al constituir el primer instrumento de dicho Consejo que exige a las partes en conflicto que los derechos de las mujeres sean respetados. La resolución reconoce el impacto diferenciado y desproporcionado que los conflictos armados y situaciones de inseguridad tienen sobre las mujeres, especialmente la violencia de género, subrayando la importancia de la contribución de las mujeres en los procesos de resolución y prevención de conflictos, así como en la consecución de la paz y el desarrollo sostenible en contextos democráticos. Este programa de formación promueve un mayor conocimiento de la Resolución 1325 y otras resoluciones conexas en América Latina y el Caribe, de modo que la incorporación de la perspectiva de género en la paz y la seguridad sea un compromiso y una tarea crecientemente asumida por los gobiernos de la región. El objetivo es capacitar a personas de diferentes sectores: público, academia y sociedad civil, a la vez que promover el diálogo y el fortalecimiento de capacidades para el trabajo intersectorial que requieren las políticas para la igualdad. La metodología y el contenido del programa, que se estructura en módulos temáticos, fueron desarrollados en la División de Asuntos de Género de la Comisión Económica para América Latina y el Caribe (CEPAL), con apoyo del UNFPA, y responden a la realidad y las necesidades específicas de formación en esta materia que tiene América Latina.