782 resultados para SEGUNDO NIVEL DE ATENCIÓN
Resumo:
Este trabajo intenta abordar el problema acerca de la educación física en relación al objeto de estudio y a la especificidad del campo, a partir de una reflexión desde la práctica. La educación física como práctica pedagógica se legitima desde su origen en el seno de la institución escolar. Es decir, hay educación física porque hay escuela. O dicho de otra manera, si hay algo que define a la educación física desde su génesis, es su carácter de escolar. ¿Pero de qué concepto de escuela hablamos al designarle la categoría de escolar a la educación física? Esto implica abordar el problema de la dicotomía entre el concepto de escuela republicana, asociada a la formación de la ciudadanía y el concepto de escuela inserto en el proyecto moderno de formación para la producción. El debate se abre desde la creación de un video con los niños, ambientando una serie de gimnasia de 1920. El trabajo recorre dos niveles de lectura. Un primer nivel donde se reflexiona acerca de cuál proyecto se identifica con esa práctica. Y un segundo nivel de lectura donde se plantean algunas interrogantes como: ¿Qué cambios tendría que hacer la educación física para transformarse en una práctica más humanista? Si bien creo necesario el ejercicio de hacer preguntas al interior del campo, me gustaría agregar cuestiones desde otro lugar: ¿Se podrá cambiar el sentido de la práctica, sin revisar el concepto escuela? ¿Podremos encontrar algunas claves en términos de cambios, en la lectura histórica de nuestro campo?
Resumo:
La Ley Orgánica de Educación de 2006 supone un cambio del sistema educativo vigente en España. En el presente artículo realizamos un análisis comparativo sobre el enfoque dado a la Expresión Corporal que, dentro de la asignatura de Educación Física, propone esta Ley respecto de la anterior legislación. Analizamos también el segundo nivel de concreción realizado por las Comunidades Autónomas, centrándonos principalmente en los contenidos mínimos. Encontramos aspectos relevantes referidos a contenidos, objetivos y criterios de evaluación, así como al paradigma desde el que se sitúa la labor docente que dificultan su aplicación en el aula. Al final del estudio se plantea la necesidad de estructurar los contenidos de esta materia de forma clara y sistemática en el ámbito de la Educación Secundaria.
Resumo:
El presente trabajo de tesis doctoral tiene por finalidad demostrar que las decisiones de financiación y de inversión inmobiliaria en España influyen de manera determinante en la configuración del proceso urbanístico y arquitectónico. Este planteamiento inicial obliga a formular las siguientes cuestiones: - En una primera fase, la situación en España del sector inmobiliario y su relación con el sector financiero en el contexto de la actual crisis financiera, iniciada en el año 2008. - Los métodos de análisis y selección de inversiones y su aplicación a los proyectos de inversión en función de la naturaleza de los activos inmobiliarios. - La valoración inmobiliaria para determinadas entidades financieras. - Características de la gestión financiera empresarial y de las empresas inmobiliarias. - El origen de fondos para financiar el proceso urbanístico y arquitectónico mediante las instituciones de inversión colectiva inmobiliaria y el mercado inmobiliario. - La regulación actual en España, a nivel estatal, del suelo como materia prima del sector inmobiliario. - La edificación residencial y el mercado inmobiliario en el actual contexto económico. - La posibilidad de crear en España un mercado de derivados basado en activos inmobiliarios. - Cómo repercute la actividad económica, a través de la inversión y la financiación, en los activos inmobiliarios, en el urbanismo y la arquitectura. Las cuestiones precedentes se resuelven de forma sistemática y metodológica en esta tesis doctoral estructurada en tres grandes bloques (inversión, financiación y repercusiones en el urbanismo y la arquitectura), obteniendo una serie de respuestas reflejadas en el desarrollo del presente trabajo que se sintetizan en las siguientes líneas: - La actual crisis financiera iniciada en el año 2008 ha provocado en España el colapso del sector inmobiliario y una nueva concepción en la naturaleza de los activos inmobiliarios. El sector inmobiliario trae causa del sector financiero, en especial del crédito bancario. - Dependencia y vinculación del sector inmobiliario español de la política monetaria europea: la incorporación de España a la moneda única transforma por completo el sector inmobiliario español. - Los métodos de análisis y selección de inversiones se conforman como instrumentos relevantes que nos permiten jerarquizar nuestros proyectos. No obstante, presentan una serie de limitaciones y dificultades de aplicación práctica, por lo que no deben considerarse como herramientas que nos aporten una única solución irrefutable. - La valoración de activos inmobiliarios se constituye en un pilar básico que fundamenta la correcta aplicación de los fondos. - La inversión en activos inmobiliarios puede realizarse de forma directa o indirecta. En este último supuesto, con una influencia relevante de las innovaciones financieras surgidas en los últimos años. - Las instituciones de inversión colectiva y el mercado hipotecario constituyen instituciones fundamentales capaces de captar importantes cantidades de fondos que impulsan y financian el proceso urbanístico y arquitectónico. - El complejo y cambiante sistema jurídico español en materia de suelo, dificulta la implementación de los procesos urbanísticos y arquitectónicos. - Tras la crisis financiera de 2008, los activos inmobiliarios tienen un comportamiento similar a otros activos en cuanto a subidas y bajadas de precios. En el actual sistema económico, la especulación forma parte inherente a la naturaleza de los activos inmobiliarios. - Desde una perspectiva teórica, existe la posibilidad de crear un mercado de derivados que tenga como subyacente activos de naturaleza inmobiliaria. - Sin actividad económica, el proceso urbanístico y arquitectónico carecerá finalmente de sentido y tenderá a desaparecer. No obstante, son las innovaciones tecnológicas, a nivel de producto y proceso, las principales causantes del impulso de la actividad económica. - A pesar de lo expresado en los documentos urbanísticos internacionales, la transformación del urbanismo y la arquitectura dependen principalmente de la actividad económica y la tecnología. En un segundo nivel, la inversión y la financiación condicionan y definen el urbanismo y la arquitectura, incluso a nivel de proyecto si se pretende su materialización. En base al desarrollo previo, el objetivo fundamental de esta tesis doctoral ha sido demostrar que las decisiones de financiación y de inversión tienen una importancia capital y determinan la configuración de los activos inmobiliario, del urbanismo y la arquitectura, por lo que deben ser tenidas en cuenta no sólo en su materialización sino incluso en la propia concepción del proceso creativo. ABSTRACT The present dissertation aims to show that real estate financing and investment decisions in Spain play a predominant role in structuring urban development and architectural solutions. The issues addressed to support that contention include: - As a preliminary study, the situation of the real estate industry in Spain and its relationship to the financial sector in the context of the 2008 financial crisis. - The methods used to analyse and select investments and their application to investment projects, by type of real estate asset. - Appraisal of certain financial institutions’ real estate asset holdings. - Characteristics of financial institution and real estate company corporate management. - Sourcing funds for financing urban development and architecture through real estate investment trusts and the real estate market. - Present nation-wide regulations on landed property in Spain as a raw material for the real estate industry. - Residential building construction and the real estate market in the present economic context. - The possibility of creating a real estate asset-based derivatives market in Spain - The impact of economic activity, through investment and financing, on real estate assets, urban development and architecture. The aforementioned issues are addressed systematically and methodically in this dissertation, which is divided into three major units: investment, financing, and impact on urban development and architecture. The conclusions drawn are summarised below. - The financial crisis that began in 2008 has induced the collapse of the Spanish real estate industry and spawned a new perception of the nature of real estate assets. The real estate industry is dependent upon the financial sector, in particular on bank loans. - The Spanish real estate industry also depends on and is related to European monetary policy: Spain’s adherence to the single currency ushered in a thorough overhaul of its real estate industry. - Investment analysis and selection methods constitute highly suitable tools for project evaluation and ranking. Nonetheless, inasmuch as their practical implementation is subject to a series of limitations and difficulties, they should not be thought able to deliver a single irrefutable solution. - Real estate asset appraisal is a mainstay to the rightful application of funds. - Real estate asset investments can be made directly or indirectly. The latter approach is heavily influenced by the financial innovations forthcoming in recent years. - Investment trusts and the mortgage market are key institutions able to raise substantial funding, thereby driving and financing urban development and architecture. - Spain’s complex and changing legal provisions on land management are an obstacle to urban development and architecture. - Since the 2008 crisis, real estate assets have behaved much like other assets in terms of rising and falling prices. In the present economic context, speculation is indivisible from real estate assets. - Theoretically speaking, a derivatives market with real estate holdings as the underlying assets lies within the realm of possibility. - In the absence of economic activity, urban development and architecture are senseless pursuits and tend to disappear. Technological innovation in products and processes are the main drivers of economic activity. - Despite the opinion expressed in international papers on the subject, the transformation of urban development and architecture depend primarily on economic activity and technology. In a second dimension, investment and financing condition and define urban development and architecture, even at the design level for projects aspiring to actual construction. Pursuant to the foregoing, the primary aim of this dissertation is to show that financial and investment decisions are of cardinal importance and determine the structure of real estate assets, urban development and architecture. They must consequently be borne in mind not only in connection with implementation, but also with conceptual design and the creative process itself. I
Resumo:
La robótica ha evolucionado exponencialmente en las últimas décadas, permitiendo a los sistemas actuales realizar tareas sumamente complejas con gran precisión, fiabilidad y velocidad. Sin embargo, este desarrollo ha estado asociado a un mayor grado de especialización y particularización de las tecnologías implicadas, siendo estas muy eficientes en situaciones concretas y controladas, pero incapaces en entornos cambiantes, dinámicos y desestructurados. Por eso, el desarrollo de la robótica debe pasar por dotar a los sistemas de capacidad de adaptación a las circunstancias, de entendedimiento sobre los cambios observados y de flexibilidad a la hora de interactuar con el entorno. Estas son las caracteristicas propias de la interacción del ser humano con su entorno, las que le permiten sobrevivir y las que pueden proporcionar a un sistema inteligencia y capacidad suficientes para desenvolverse en un entorno real de forma autónoma e independiente. Esta adaptabilidad es especialmente importante en el manejo de riesgos e incetidumbres, puesto que es el mecanismo que permite contextualizar y evaluar las amenazas para proporcionar una respuesta adecuada. Así, por ejemplo, cuando una persona se mueve e interactua con su entorno, no evalúa los obstáculos en función de su posición, velocidad o dinámica (como hacen los sistemas robóticos tradicionales), sino mediante la estimación del riesgo potencial que estos elementos suponen para la persona. Esta evaluación se consigue combinando dos procesos psicofísicos del ser humano: por un lado, la percepción humana analiza los elementos relevantes del entorno, tratando de entender su naturaleza a partir de patrones de comportamiento, propiedades asociadas u otros rasgos distintivos. Por otro lado, como segundo nivel de evaluación, el entendimiento de esta naturaleza permite al ser humano conocer/estimar la relación de los elementos con él mismo, así como sus implicaciones en cuanto a nivel de riesgo se refiere. El establecimiento de estas relaciones semánticas -llamado cognición- es la única forma de definir el nivel de riesgo de manera absoluta y de generar una respuesta adecuada al mismo. No necesariamente proporcional, sino coherente con el riesgo al que se enfrenta. La investigación que presenta esta tesis describe el trabajo realizado para trasladar esta metodología de análisis y funcionamiento a la robótica. Este se ha centrado especialmente en la nevegación de los robots aéreos, diseñando e implementado procedimientos de inspiración humana para garantizar la seguridad de la misma. Para ello se han estudiado y evaluado los mecanismos de percepción, cognición y reacción humanas en relación al manejo de riesgos. También se ha analizado como los estímulos son capturados, procesados y transformados por condicionantes psicológicos, sociológicos y antropológicos de los seres humanos. Finalmente, también se ha analizado como estos factores motivan y descandenan las reacciones humanas frente a los peligros. Como resultado de este estudio, todos estos procesos, comportamientos y condicionantes de la conducta humana se han reproducido en un framework que se ha estructurado basadandose en factores análogos. Este emplea el conocimiento obtenido experimentalmente en forma de algoritmos, técnicas y estrategias, emulando el comportamiento humano en las mismas circunstancias. Diseñado, implementeado y validado tanto en simulación como con datos reales, este framework propone una manera innovadora -tanto en metodología como en procedimiento- de entender y reaccionar frente a las amenazas potenciales de una misión robótica. ABSTRACT Robotics has undergone a great revolution in the last decades. Nowadays this technology is able to perform really complex tasks with a high degree of accuracy and speed, however this is only true in precisely defined situations with fully controlled variables. Since the real world is dynamic, changing and unstructured, flexible and non context-dependent systems are required. The ability to understand situations, acknowledge changes and balance reactions is required by robots to successfully interact with their surroundings in a fully autonomous fashion. In fact, it is those very processes that define human interactions with the environment. Social relationships, driving or risk/incertitude management... in all these activities and systems, context understanding and adaptability are what allow human beings to survive: contrarily to the traditional robotics, people do not evaluate obstacles according to their position but according to the potential risk their presence imply. In this sense, human perception looks for information which goes beyond location, speed and dynamics (the usual data used in traditional obstacle avoidance systems). Specific features in the behaviour of a particular element allows the understanding of that element’s nature and therefore the comprehension of the risk posed by it. This process defines the second main difference between traditional obstacle avoidance systems and human behaviour: the ability to understand a situation/scenario allows to get to know the implications of the elements and their relationship with the observer. Establishing these semantic relationships -named cognition- is the only way to estimate the actual danger level of an element. Furthermore, only the application of this knowledge allows the generation of coherent, suitable and adjusted responses to deal with any risk faced. The research presented in this thesis summarizes the work done towards translating these human cognitive/reasoning procedures to the field of robotics. More specifically, the work done has been focused on employing human-based methodologies to enable aerial robots to navigate safely. To this effect, human perception, cognition and reaction processes concerning risk management have been experimentally studied; as well as the acquisition and processing of stimuli. How psychological, sociological and anthropological factors modify, balance and give shape to those stimuli has been researched. And finally, the way in which these factors motivate the human behaviour according to different mindsets and priorities has been established. This associative workflow has been reproduced by establishing an equivalent structure and defining similar factors and sources. Besides, all the knowledge obtained experimentally has been applied in the form of algorithms, techniques and strategies which emulate the analogous human behaviours. As a result, a framework capable of understanding and reacting in response to stimuli has been implemented and validated.
Resumo:
El problema consiste básicamente en realizar un estudio de sensibilidad a la hora de analizar la estabilidad frente a rotura por cimiento a través de macizo rocoso y discontinuidad en el caso de presas de gravedad de tamaño medio. El presente documento muestra una comparativa de diferentes metodologías para estimar la seguridad de una presa de gravedad frente al deslizamiento por macizo rocoso y discontinuidad. Para ello se ha empleado un modelo de cálculo que computa la seguridad frente al deslizamiento a traves de un estudio paramétrico en función de las principales variables geométricas y geomecánicas que intervienen en el mismo. Se utilizan los criterios de resistencia de Hoek & Brown (1980) y de Barton & Choubey (1974) para caracterizar la resistencia del macizo rocoso y de las discontinuidades, respectivamente. El modelo permite definir tanto las variables de entrada (acciones y parámetros de los materiales), y el calculo del coeficiente de seguridad, (FS), a partir del cual se presenta el criterio de fallo a emplear en los cálculos de fiabilidad mediante técnicas estadísticas. Las diferentes metodologías utilizadas se agrupan en distintos niveles, que van desde: a) los niveles básicos asociados al determinismo, trabajando con FS, y/o con FS parciales; b) cálculos de segundo nivel, como el método de los momentos de segundo orden, los cuales proporcionan una probabilidad de fallo a partir de la aproximación de la función de densidad de probabilidad conjunta mediante sus dos primeros momentos (media y desviación típica) y la definición de una región de fallo con el modelo propuesto; c) finalmente, los métodos exactos o de nivel III, tales como el método de simulación de Monte Carlo, que generan histogramas de parámetros y proporcionan probabilidades de fallo. Con ello se pretende profundizar en las técnicas de cálculo de fiabilidad en presas, además de estimar la influencia de los distintos parámetros que definen la cimentación. Este modelo se puede emplear para otras estructuras y tipologías. A modo de ejemplo, se aplica un cálculo para el caso de una presa bóveda y se analizan los resultados obtenidos.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
La implantación de todas las asignaturas del área de Urbanística y Ordenación del Territorio el próximo curso 2015-16 en la Universidad de Alicante plantea la elaboración de una estrategia conjunta en la que se aúnen los objetivos docente del área de conocimiento así como de las distintas titulaciones en la que se imparten contenidos. Por un lado, las titulaciones en las que se imparte abarca los dos niveles de formativos: un primer nivel de Grado los Grado incluye las titulaciones de Arquitectura Técnica, Ingeniería Civil, Arquitectura y Fundamentos de la Arquitectura; el segundo nivel de Máster afecta a los siguientes másteres: Gestión de la Edificación, Arquitectura, Ingeniería de Caminos, Canales y Puertos. Por otro lado, la diversidad temática incluye, entre otros aspectos, aquellos que recorren la historia urbana, el espacio público, las unidades residenciales, el medio ambiente o el planeamiento urbano y territorial. En ese contexto de diversidad tanto temática como respecto a la titulación a la que va destinada la docencia, se plantea una estrategia de definición de objetivos colectivos coordinados que se interrelacionan entre las distintas asignaturas.
Resumo:
La aplicación de las neurociencias en el conocimiento del ser humano ha demostrado cómo el empleo de estímulos sensoriales y experienciales influyen en la atención, el agrado, las emociones, el compromiso –engagement- y la memoria -recuerdo y reconocimiento- de las marcas en entornos publicitarios relacionados con la decisión de compra. El objeto a través del empleo del Neuromarketing es determinar las áreas y funciones de las activaciones cerebrales que modulan la conducta del consumidor relacionadas con la mercadotecnia y el proceso de compra en entornos comerciales. Asimismo identifica el efecto que la publicidad genera en hombres y mujeres al encontrar diferencias de género de cómo les impacta la publicidad como la utilización de personajes célebres a cada uno de ellos, con los que adecuar los mensajes a los segmentos de mercado que tiendan a la excelencia de la eficiencia publicitaria con los que ayudar a los protagonistas clave del sector de la marketing y la publicidad. A través de un estudio propio de Neuromarketing se analiza el comportamiento de hombres y mujeres durante la visualización de los anuncios publicitarios como recurso estratégico para mejorar la eficiencia publicitaria en el diseño y la comunicación de un producto, servicio o campaña publicitaria antes, durante y después del lanzamiento.La medición publicitaria realizada con algunas de las técnicas de Neuroimagen más precisas del mercado, el Electroencefalograma (EEG) y biométricas; el Ritmo Cardíaco (HR) y Respuesta Galvánica de la Piel (GSR), han registrado el aumento del nivel de atención, agrado, emociones o motivación cuando se genera una necesidad o deseo en la demanda de los consumidores mejorando las actuales técnicas de Investigación de Mercado del marketing tradicional. Estas investigaciones permiten presentar la creación del modelo de eficiencia en el diseño y comunicación publicitaria SIADEM (-SENSORY, INTENTION, ATTENTION, DESIRE, EMOTION, MEMORY-) que tiene en cuenta los elementos básicos en los que se debe basar los mensajes publicitarios de cualquier marca para atraer el interés del cerebro consumidor.
Resumo:
Determinar la pertinencia de las Remisiones y Contra remisiones generadas en la red adscrita de Servicios de Salud en la ciudad de Manizales- Caldas durante el año 2013. Caracterizar las remisiones, según oportunidad de la atención, disponibilidad de camas, uso de cama hospitalaria y criterios de gravedad de la remisión, en términos de necesidad, sitio o institución remitente y receptora.
Resumo:
Introducción: “Cuidando a las cuidadoras” consiste en un programa interdisciplinario e intersectorial que brinda desde el año 2013 atención integral a las madres de niños hospitalizadas protegiendo sus derechos. Objetivos: describir un programa de protección de adolescentes que aproxima al sistema de salud a las madres de niños hospitalizados. Método: diseño: observacional, descriptivo. Período: 1 de marzo de 2013 al 1 de marzo de 2015. Criterios de inclusión: madres y/o cuidadoras menores de 19 años de los niños hospitalizados en cuidados moderados del CHPR. Se indagaron variables sociodemográficas, características del embarazo, conocimientos sobre el cuidado del hijo, hábitos de autocuidado. Resultados: se entrevistaron 208 madres y 2 cuidadoras hospitalizadas con sus niños. 195 no controladas en salud. Rango de edad: 14-19 años. Todas solteras y 11 conviviendo con su pareja. Nivel educativo: 150 terminaron primaria, 22 hasta tercer año de secundaria, abandono: 45 primaria, 128 secundaria. Se derivaron 180 cuidadoras al servicio de salud sexual y reproductiva. Las adolescentes decidieron iniciar medidas anticonceptivas en 110 casos. En 26 casos se logró la cobertura odontológica. En 21 se realizó consulta con oftalmología. En 26 se logró realizar conexión con programas socioeducativos logrando reinserción a nivel educativo. Todas las cuidadoras fueron controladas en salud, se les brindó el carnet de control de adolescentes y se realizó la contrarreferencia al primer nivel de atención. Discusión: ésta es la primera experiencia de abordaje de atención a la salud de cuidadoras de niños hospitalizados. Se detectó gran vulnerabilidad en las adolescentes incluidas, logrando un acercamiento a los servicios de salud y educativos.
Resumo:
El objetivo del presente artículo es establecer y clarificar el planteamiento de líneas de investigación en diseño a través de ejemplos demostrativos de proyectos de investigación en los tres niveles de investigación: básica, aplicada y de desarrollo tecnológico. La corroboración de estos proyectos tanto por la aplicación práctica a productos reales comercializados sería un primer nivel de verificación de transferencia de conocimiento a empresas, y un segundo nivel de evaluación sería la penetración en el mercado de esos productos resultantes, siendo ésta posiblemente la validación más contundente. Sin embargo, la evaluación positiva de los diferentes tramos de investigación solicitados a la CNEAI basados en estas experiencias prácticas, aporta un valor diferencial a los proyectos desarrollados porque validan una forma de entender la investigación en diseño, nos ha permitido generar un saber-hacer muy particular, y nos dispone a transferirlo al área de conocimiento de dibujo, y mejorar su rendimiento científico, tan reclamado desde las administraciones educativas del país.
Resumo:
En el presente trabajo se desarrolló una propuesta arquitectónica para un edificio anexo al edificio actual de la Alcaldía Municipal de Santa Tecla, donde se transladarán todas las áreas y departamentos que comprenden las oficinas administrativas de la alcaldía, que están ubicadas en el segundo nivel del edificio actual, esto con el objetivo de generar espacios más adecuados para el desarrollo pleno de la actividades administrativas
Resumo:
En esta tesis se realiza un estudio contrastivo de los textos en español y alemán para el contrato de arrendamiento por temporada, centrándose en el caso de alojamiento no compartido en una casa rural, donde se muestran las influencias que existen desde el punto de vista cultural, legal y social en los textos tanto a nivel de macroestructural como a nivel de microfunciones del lenguaje. En el trabajo se exponen las dificultades para realizar un estudio a nivel microfuncional completo, por lo que se centra, una vez establecido un contrato tipo a nivel macroestructural, en los aspectos más importantes dentro del estudio realizado: las microfunciones temporales y condicionales. El trabajo se ha dividido en dos partes principales para las que se justifica un estudio bottom-up. Para el análisis de los textos se ha utilizado la herramienta Atlas.ti incluyéndose en los anexos toda la documentación generada con dicho software. Las conclusiones principales que se desprenden de este trabajo son: El contrato de alojamiento turístico extrahotelero en español está en desuso, por lo que es necesario usar el contrato de arrendamiento por temporada. En el caso alemán, se usa el «Mietvertrag für ein Ferienhaus oder eine Ferienwohnung» (arrendamiento de un chalé vacacional o de un apartamento turístico) que es un subgénero de «Beherbergungsvertrag» (contrato de alojamiento u hospedaje). Ambos contratos se someten a la legislación arrendaticia. Es necesario centrarse en ramas muy limitadas de texto para poder elaborar un corpus comparable, por lo que se debe usar un planteamiento empírico con el género textual de contrato en el primer nivel y el análisis de las microfunciones en segundo nivel para poder confeccionar una tipología contrastiva. Es imprescindible incluir los aspectos culturales de las lenguas a comparar, ya que el texto no se debe estudiar solamente bajo aspectos lingüísticos. El hecho de que existan términos en un idioma que no hay en otro a nivel léxico se reconfirma a nivel textual, mejor dicho a nivel de género o a nivel de subgénero de texto. Los contratos, al estar dentro de un ordenamiento jurídico no son textos estables, los cambios en legislación influyen en los textos o incluso en su desaparición en un determinado contexto comunicativo. Un mismo género de texto no supone coincidencia a nivel de macroestructura, existen bloques comunes pero también diferencias importantes por legislación, convenciones culturales, normativas europeas, etc. La determinación de una microfunción depende del género textual analizado. En el caso de las microfunciones temporales, para el género textual analizado, se definen siete criterios temporales. Frente a la clasificación jerarquizada en tres niveles (funciones generales, subfunciones y microfunciones), se plantea establecer las microfunciones dominantes del texto para confeccionar más fácilmente una tipología textual.
Resumo:
En esta sección se analizan el uso y la aplicación de los instrumentos de gobierno en algunos programas de juventud. El objetivo de este análisis es entender, con mayor profundidad, las herramientas que son utilizadas para intervenir los problemas que ha identificado el Estado en una población o sector específico. En primer lugar, se presenta un marco teórico para comprender las discusiones principales sobre este tema y poder contar con una visión general sobre los instrumentos de gobierno, es decir, las herramientas de las cuales se sirve el gobierno local para ejecutar una acción pública. Este marco teórico se complementa con otra literatura que indica la manera como deben ser seleccionados dichos instrumentos y sobre las formas para evaluarlos cuando se está haciendo un análisis de implementación. Una vez construido el marco teórico, se analizan los programas de juventud de acuerdo con el uso de los instrumentos de gobierno. El análisis, entonces, se hace a partir de la información recolectada en las entrevistas realizadas a los operadores de los programas, así como con algunas secretarías encargadas de ejecutar los programas de manera directa. Además, se analiza la información de acuerdo con tres niveles de acción: el primero, que se compone de los programas de política universal, es decir, de programas dirigidos a toda la población; el segundo nivel contiene programas para población vulnerable y se denomina políticas de protección; y el tercer nivel de acción, dirigido a población vulnerada, pretende atender a los jóvenes que no han sido cobijados por las políticas del primer o segundo nivel y, por lo tanto, deben ser formuladas como políticas de recuperación. Esto, con el fin de sensibilizar el análisis a las condiciones de exclusión estructural.
Resumo:
La tesis doctoral «Análisis de las traducciones de Érase una vez… el hombre al español» es un estudio descriptivo elaborado a partir de la traducción de la serie televisiva para niños de finales de los años setenta. La investigación versa sobre el análisis de las dos traducciones comercializadas en España: la versión en español de España emitida por la cadena pública Televisión Española y la versión en español de América, distribuida años después por una conocida editorial privada. La tesis busca describir las tendencias de traducción de tales productos mediante el estudio de técnicas y normas de traducción incorporando las aportaciones de la traducción de la literatura para niños desde la combinación lingüística francés-español. La tesis abordará el análisis desde una adaptación de la propuesta de Lambert y Van Gorp (1985) para describir un primer nivel de información preliminar, donde se llevará a cabo la investigación del contexto de la serie; un segundo nivel macrotextual, donde se estudiarán los códigos de significación del filme que son susceptibles de ser traducidos; y un último nivel microtextual, en el que se realizará un análisis de los dos pares de lengua (español de España – francés; español de América – francés) desde las técnicas de traducción y desde las normas y posibles normas. Por último, el análisis de resultados obtenidos permitirá relacionar los distintos niveles abordados así como detectar una serie de semejanzas en la transferencia de la serie televisiva con las normas descritas en traducción de la literatura infantil y juvenil.