996 resultados para Dimensión del dolor


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Textos como Angosta (2004) de Héctor Abad Faciolince, La escuela del dolor humano de Sechuán (2005) de Mario Bellatin, o la narrativa cucurtiana (2003, 2005, 2006, 2008) gesticulan experiencias estéticas atravesadas por formas de la violencia que se constituyen en un entre-lugar habitado por la ruina, pero también por la posibilidad de futuro. Por un lado las políticas de muerte que han llevado al cuerpo migrante al riesgo de vida, y por otro el rescate de esas formas de vida (trans, migrantes) como políticas del sentimiento que, al profanar dispositivos clasificatorios, producen nuevas lógicas estéticas/estésicas que nos permiten leer el presente: tecnologías narrativas y tecnologías del "yo" condensadas en determinadas figuras/políticas. Por ende, propongo recorrer estos tópicos en relación con la temática del goce/estetización de la violencia en torno a la figura del guerrero y la agencia de la muerte. Sostengo la hipótesis de una politización en un sentido benjaminiano donde lo artístico es atravesado por lo tecnológico. No obstante, en los casos que aquí se trabajan las técnicas que se ponen a funcionar son las del "yo"

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Desde mediados del siglo XX se reconoce mundialmente el envejecimiento continuo y constante de la población. Este grupo muestra particularidades que son abordadas desde diferentes espacios sanitarios. El más reconocido de ellos, los Programas de salud tienen como una de sus principales metas 'controlar' las enfermedades; en este caso las asociadas con el proceso de envejecimiento. El trabajo aborda la emergencia del cuerpo a partir de la implementación de dichas políticas. El objetivo ha sido describir las implicancias que surgen en la recuperación del cuerpo de mujeres Mayores, cuyas prácticas culturales y roles sociales han ocultado a sus sensaciones y proyecciones cotidianas. Se implementó una metodología cualitativa a partir de relatos de experiencias de mujeres Mayores que participan de las actividades prescritas desde los Programas de Salud propuestos por el Instituto Nacional de Servicios Sociales para Jubilados y Pensionados, en los lugares donde dichas actividades se realizan. Los resultados obtenidos marcan la re-emergencia de un cuerpo que el contexto y la historia de esas mujeres se ocuparon de borrar de las prioridades cotidianas, y que las enfermedades ponen de manifiesto desde el lugar del dolor y la pérdida, habilitando a sensaciones, sentimientos, goces, que se creían perdidos

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La aparición de los nuevos dispositivos de información y comunicación ha modificado por completo el consumo de mercancías en las sociedades globales. Sin embargo, la sociología contemporánea no encuentra un lenguaje adecuado para referir a esta nueva dimensión del objeto, más que reproducir los motivos tradicionales con los que piensa la apropiación.En este sentido, la obra de Wolfgang Fritz Haug constituye un aporte original para pensar el consumo de mercancías en clave cultural. El objetivo del trabajo consiste en focalizar la dimensión estética, en diálogo con la lectura benjaminiana, para indagar sobre el carácter singular del diseño de los dispositivos tecnológicos en el umbral de la reproductibilidad digital. El desarrollo de una estética mercantil más o menos uniformeilumina el proceso de intercambio desde una perspectiva cultural

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el presente artículo se presentan algunos lineamientos generales sobre la distinción sexo/género y su impacto en la delimitación de la categoría cuerpo en la teoría feminista. Luego se ofrecen argumentos que cuestionan el dimorfismo sexual en términos naturales, a partir de conceptualizaciones de Judith Butler, de la ambigüedad de cuerpos intersexuales y de ciertas prácticas corporales subversivas. En esta línea, se exponen aproximaciones esencialistas y constructivistas en relación con el cuerpo, ilustradas a partir de los planteos de Luce Irigaray y Judith Butler. Finalmente, se concluye la necesidad de someter a debate la categoría sexo como ocasión privilegiada para reformular las múltiples conceptualizaciones que involucran la dimensión del cuerpo

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La novela Azul de Rosa Regàs contiene la relación de una historia sentimental de diez años que no se desarrolla linealmente, sino que se articula en una estructura de "tiempo reducido retrospectivo". El tiempo reducido abarca tres días. Un percance obliga a los viajeros del barco "Albatros" a cambiar el itinerario y detenerse en el puerto más cercano, en una pequeña isla. El texto entrelaza las dos historias: la de tres días correspondiente al nivel primario y la de diez años correspondiente al nivel secundario. La técnica de intercalar los fragmentos de cada nivel requiere el análisis de los recursos con que un relato aparece insertado en el otro. Los conflictos de la pareja central, en especial el del protagonista, dan lugar a diversas consideraciones sobre el tiempo: su pasar desgastante, los cambios en la persona y en el plano sociohistórico, y el contraste entre el tiempo subjetivo y el objetivo. En cuanto al espacio, la isla es el escenario propicio para la soledad en la que el joven protagonista vivirá experiencias comparables a una catábasis, a una revelación sobre sí mismo. Los efectos no son inmediatos ni decisivos. Martín Ures es introvertido, inseguro: varios factores lo ponen en desventaja frente a su entorno, pero el texto se concentra en señalar como factor definitorio su origen geográfico, es "hombre de tierra adentro". No se separa de su esposa. Para seguir juntos han tenido que recurrir al olvido y someterse a la ley universal del dolor. Por eso la novela que comienza hablando de la isla termina con una palabra que ensancha ampliamente la dimensión espacial y que en el contexto no está exenta de implicaciones temporales: ambos están inmersos en "el marasmo de dolor del mundo".

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La aparición de los nuevos dispositivos de información y comunicación ha modificado por completo el consumo de mercancías en las sociedades globales. Sin embargo, la sociología contemporánea no encuentra un lenguaje adecuado para referir a esta nueva dimensión del objeto, más que reproducir los motivos tradicionales con los que piensa la apropiación.En este sentido, la obra de Wolfgang Fritz Haug constituye un aporte original para pensar el consumo de mercancías en clave cultural. El objetivo del trabajo consiste en focalizar la dimensión estética, en diálogo con la lectura benjaminiana, para indagar sobre el carácter singular del diseño de los dispositivos tecnológicos en el umbral de la reproductibilidad digital. El desarrollo de una estética mercantil más o menos uniformeilumina el proceso de intercambio desde una perspectiva cultural

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Textos como Angosta (2004) de Héctor Abad Faciolince, La escuela del dolor humano de Sechuán (2005) de Mario Bellatin, o la narrativa cucurtiana (2003, 2005, 2006, 2008) gesticulan experiencias estéticas atravesadas por formas de la violencia que se constituyen en un entre-lugar habitado por la ruina, pero también por la posibilidad de futuro. Por un lado las políticas de muerte que han llevado al cuerpo migrante al riesgo de vida, y por otro el rescate de esas formas de vida (trans, migrantes) como políticas del sentimiento que, al profanar dispositivos clasificatorios, producen nuevas lógicas estéticas/estésicas que nos permiten leer el presente: tecnologías narrativas y tecnologías del "yo" condensadas en determinadas figuras/políticas. Por ende, propongo recorrer estos tópicos en relación con la temática del goce/estetización de la violencia en torno a la figura del guerrero y la agencia de la muerte. Sostengo la hipótesis de una politización en un sentido benjaminiano donde lo artístico es atravesado por lo tecnológico. No obstante, en los casos que aquí se trabajan las técnicas que se ponen a funcionar son las del "yo"

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Desde mediados del siglo XX se reconoce mundialmente el envejecimiento continuo y constante de la población. Este grupo muestra particularidades que son abordadas desde diferentes espacios sanitarios. El más reconocido de ellos, los Programas de salud tienen como una de sus principales metas 'controlar' las enfermedades; en este caso las asociadas con el proceso de envejecimiento. El trabajo aborda la emergencia del cuerpo a partir de la implementación de dichas políticas. El objetivo ha sido describir las implicancias que surgen en la recuperación del cuerpo de mujeres Mayores, cuyas prácticas culturales y roles sociales han ocultado a sus sensaciones y proyecciones cotidianas. Se implementó una metodología cualitativa a partir de relatos de experiencias de mujeres Mayores que participan de las actividades prescritas desde los Programas de Salud propuestos por el Instituto Nacional de Servicios Sociales para Jubilados y Pensionados, en los lugares donde dichas actividades se realizan. Los resultados obtenidos marcan la re-emergencia de un cuerpo que el contexto y la historia de esas mujeres se ocuparon de borrar de las prioridades cotidianas, y que las enfermedades ponen de manifiesto desde el lugar del dolor y la pérdida, habilitando a sensaciones, sentimientos, goces, que se creían perdidos

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este trabajo sostengo que existe una relación entre ocio y estratificación social, o más específicamente, entre las formas de sociabilidad del tiempo libre y los estratos superiores, donde las prácticas de sociabilidad, esparcimiento y deporte operan como instancias de producción y reproducción, así como también de reconversión y recomposición social y simbólica de las categorías sociales de los estratos superiores. En el primer capítulo abordo buena parte de la bibliografía sobre estratificación social, clases sociales y elites para fundamentar el valor analítico de esta dimensión para las ciencias sociales en términos generales, y para el estudio de los fenómenos ligados a la sociabilidad del tiempo libre entre los estratos superiores, en particular. En el segundo capítulo intento fundamentar el valor sociológico de la dimensión del ocio y el tiempo libre, así como sus formas de sociabilidad, especialmente en función de su articulación en torno a los estratos superiores. En el tercer capítulo procuro abordar la relación entre estratos superiores y sociabilidad del tiempo libre para (y desde) el contexto argentino contemporáneo. Intentaré trabajar en torno al modo en que ha sido pensada y es posible pensar esa relación para la escena local, y al mismo tiempo, sobre el modo en que la reflexión enfocada en el contexto local nos permite elaborar marcos de análisis para el estudio del fenómeno de la sociabilidad del tiempo libre entre los estratos superiores, en general. Finalmente, la perspectiva que desarrollo aboga por un desplazamiento analítico que vaya desde las interpretaciones unidimensionales de los fenómenos ligados a la sociabilidad, el deporte y el ocio entre los estratos superiores hacia las lecturas multidimensionales. Un desplazamiento que nos permita interpretar la relación entre los procesos estructurales, las instancias de sociabilidad y las prácticas de los agentes en términos de afinidades, reponiendo la positividad de cada dimensión sin la necesidad de recurrir a las sobredeterminaciones o los reduccionismos de las más variadas especies

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Ingeniería del Software (IS) Empírica adopta el método científico a la IS para facilitar la generación de conocimiento. Una de las técnicas empleadas, es la realización de experimentos. Para que el conocimiento obtenido experimentalmente adquiera el nivel de madurez necesario para su posterior uso, es necesario que los experimentos sean replicados. La existencia de múltiples replicaciones de un mismo experimento conlleva la existencia de numerosas versiones de los distintos productos generados durante la realización de cada replicación. Actualmente existe un gran descontrol sobre estos productos, ya que la administración se realiza de manera informal. Esto causa problemas a la hora de planificar nuevas replicaciones, o intentar obtener información sobre las replicaciones ya realizadas. Para conocer con detalle la dimensión del problema a resolver, se estudia el estado actual de la gestión de materiales experimentales y su uso en replicaciones, así como de las herramientas de gestión de materiales experimentales. El estudio concluye que ninguno de los enfoques estudiados proporciona una solución al problema planteado. Este trabajo persigue como objetivo mejorar la administración de los materiales experimentales y replicaciones de experimentos en IS para dar soporte a la replicación de experimentos. Para satisfacer este objetivo, se propone la adopción en experimentación de los paradigmas de Gestión de Configuración del Software (GCS) y Línea de Producto Software (LPS). Para desarrollar la propuesta se decide utilizar el método de investigación acción (en inglés action research). Para adoptar la GCS a experimentación, se comienza realizando un estudio del proceso experimental como transformación de productos; a continuación, se realiza una adopción de conceptos fundamentada en los procesos del desarrollo software y de experimentación; finalmente, se desarrollan un conjunto de instrumentos, que se incorporan a un Plan de Gestión de Configuración de Experimentos (PGCE). Para adoptar la LPS a experimentación, se comienza realizando un estudio de los conceptos, actividades y fases que fundamentan la LPS; a continuación, se realiza una adopción de los conceptos; finalmente, se desarrollan o adoptan las técnicas, simbología y modelos para dar soporte a las fases de la Línea de Producto para Experimentación (LPE). La propuesta se valida mediante la evaluación de su: viabilidad, flexibilidad, usabilidad y satisfacción. La viabilidad y flexibilidad se evalúan mediante la instanciación del PGCE y de la LPE en experimentos concretos en IS. La usabilidad se evalúa mediante el uso de la propuesta para la generación de las instancias del PGCE y de LPE. La satisfacción evalúa la información sobre el experimento que contiene el PGCE y la LPE. Los resultados de la validación de la propuesta muestran mejores resultados en los aspectos de usabilidad y satisfacción a los experimentadores. ABSTRACT Empirical software engineering adapts the scientific method to software engineering (SE) in order to facilitate knowledge generation. Experimentation is one of the techniques used. For the knowledge generated experimentally to acquire the level of maturity necessary for later use, the experiments have to be replicated. As the same experiment is replicated more than once, there are numerous versions of all the products generated during a replication. These products are generally administered informally without control. This is troublesome when it comes to planning new replications or trying to gather information on replications conducted in the past. In order to grasp the size of the problem to be solved, this research examines the current state of the art of the management and use of experimental materials in replications, as well as the tools managing experimental materials. The study concludes that none of the analysed approaches provides a solution to the stated problem. The aim of this research is to improve the administration of SE experimental materials and experimental replications in support of experiment replication. To do this, we propose the adaptation of software configuration management (SCM) and software product line (SPL) paradigms to experimentation. The action research method was selected in order to develop this proposal. The first step in the adaptation of the SCM to experimentation was to analyse the experimental process from the viewpoint of the transformation of products. The concepts were then adapted based on software development and experimentation processes. Finally, a set of instruments were developed and added to an experiment configuration management plan (ECMP). The first step in the adaptation of the SPL to experimentation is to analyse the concepts, activities and phases underlying the SPL. The concepts are then adapted. Finally, techniques, symbols and models are developed or adapted in support of the experimentation product line (EPL) phases. The proposal is validated by evaluating its feasibility, flexibility, usability and satisfaction. Feasibility and flexibility are evaluated by instantiating the ECMP and the EPL in specific SE experiments. Usability is evaluated by using the proposal to generate the instances of the ECMP and EPL. The results of the validation of the proposal show that the proposal performs better with respect to usability issues and experimenter satisfaction.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este estudio ofrece una herramienta de aproximación al espacio morfológico-métrico en el que se formula la ciudad de alta densidad desde la vivienda colectiva. La vivienda colectiva es la célula básica de la ciudad. El estudio configurativo y dimensional del tejido urbano muestra la importancia del fondo edificatorio como parámetro clave a mitad de camino entre la vivienda y la ciudad. El fondo edificatorio traza el margen de la arquitectura en la ciudad y desde él se equipa y cuantifica el territorio urbano. Sus dinámicas van caracterizando los distintos entornos, mientras en su interior se formula el tipo en un ajuste de continua verificación y adaptación. La forma de la ciudad y sus distintas posibilidades configurativas —en cuanto masa construida y espacio público, pero sin perder de vista la relación entre ambos— depende en gran medida del fondo edificatorio. Se trata, por tanto, de un parámetro importante de relación entre las distintas configuraciones del espacio exterior e interior. Al proyectar, una vez establecido un fondo, algunas propiedades se adaptan con facilidad mientras que otras requieren un cierto grado de interpretación o deben ser descartadas. Dada una superficie, la especificación del fondo fuerza la dimensión del frente en las configuraciones posibles. Ambas dimensiones son vitales en el valor del factor de forma del continuo edificado y en su relación se produce el complejo rango de posibilidades. Partiendo de la ciudad, un gran fondo encierra y mezcla en su interior todo tipo de usos sin distinción, repercute un menor coste por unidad de superficie edificada y comparte su frente reduciendo los intercambios térmicos y lumínicos. Sin embargo la ciudad de fondo reducido ajusta la forma al uso y se desarrolla linealmente con repetitividad a lo largo de sus frentes exteriores. En ella, el fuerte intercambio energético se opone a las grandes posibilidades del espacio libre. En cambio desde la casa las distintas medidas del fondo se producen bajo determinados condicionantes: clima, compacidad, ocupación, hibridación, tamaño de casa, etc., mientras que el tipo se desarrolla en base a una métrica afín. Este trabajo parte de esta dialéctica. Estudia la relación de dependencia entre las condiciones del edificio de viviendas y su métrica. Jerarquiza edificios en base al parámetro “fondo” para constituir una herramienta que como un ábaco sea capaz de visibilizar las dinámicas relacionales entre configuración y métrica bajo la condición de alta densidad. Para ello en una primera fase se gestiona una extensa muestra de edificios representativos de vivienda colectiva principalmente europea, extraída de tres prestigiosos libros en forma de repertorio. Se ordenan y categorizan extrayendo datos conmensurables y temas principales que ligan la profundidad de la huella a la morfología y posteriormente, esta información se estudia en diagramas que ponen de manifiesto convergencias y divergencias, acumulaciones y vacíos, límites, intervalos característicos, márgenes y ejes, parámetros y atributos... cuya relación trata de factorizar el lugar morfológico y métrico de la casa como metavivienda y ciudad. La herramienta se establece así como un complejo marco relacional en el que posicionar casos concretos y trazar nexos transversales, tanto de tipo morfológico como cultural, climático o técnico, normativo o tecnológico. Cada nuevo caso o traza añadida produce consonancias y disonancias en el marco que requieren interpretación y verificación. De este modo este instrumento de análisis comparativo se tempera, se especializa, se completa y se perfecciona con su uso. La forma de la residencia en la ciudad densa se muestra así sobre un subsistema morfológico unitario y su entendimiento se hace más fácilmente alcanzable y acumulable tanto para investigaciones posteriores como para el aprendizaje o el ejercicio profesional. ABSTRACT This research study offers a tool to approach the morphometric space in which (multi-family) housing defines high-density cities. Multi-family housing is the basic cell of the city. The configuration and dimension studies of the urban fabric render the importance of building depth as a key parameter half way between the dwelling and the city. The building depth traces de limit of architecture in the city. It qualifies and quantifies the urban territory. Its dynamics characterize the different environments while in its essence, an adjustment process of continuous verification and adaption defines type. The shape of the city and its different configuration possibilities —in terms of built fabric and public space, always keeping an eye on the relationship between them— depend majorly on the building depth. Therefore, it is a relevant parameter that relates the diverse configurations between interior and exterior space. When designing, once the depth is established, some properties are easily adpated. However, others require a certain degree of interpretation or have to be left out of the study. Given a ceratin surface, the establishment of the depth forces the dimensions of the facade in the different configurations. Both depth and facade dimensions are crucial for the form factor of the built mass. Its relationship produces a complex range of possibilities. From an urban point of view, great depth means multiple uses (making no distinction whatsoever,) it presents a lower cost per unit of built area and shares its facade optimizing temperature and light exchange. On the contrary, the city of reduced depth adjusts its shape to the use, and develops linearly and repetitively along its facades. The strong energy exchange opposes to the great possibilities of free space. From the perspective of the dwelling, the different dimensions of depth are produced under certain determinants: climate, compactness, occupancy, hybridization, dwelling size, etc. Meanwhile, the type is developed based on a related meter (as in poetry). This work starts from the previous premise. It studies the dependency relation bewteen the conditions of the dwellings and their meter (dimensions). It organizes buildings hierarchically based on the parameter “depth” to create a tool that, as an abacus, is able to visibilise the relational dynamics between configuration and dimension in high density conditions. For this, in the first stage a large group of representative multi-family housing buildings is managed, mostly from Europe, picked from three prestigious books as a repertoir. They are categorized and ordered drawing commensurable data and key issues that link the depth of the fooprint to its morphology. Later, this information is studied deeply with diagrams that bring out connections and discrepancies, voids and accumulations, limits, charasteristic intervals, margins and axii, parameters, attributes, etc. These relationships try to create factors from a morphological and metrical point of view of the house as a metadwelling. This tool is established as a complex relation frame in which case studies are postitioned and cross-cutting nexii are traced. These can deal with morphology, climate, technique, law or technology. Each new case or nexus produces affinities and discrepancies that require interpretation and verification. Thus, this instrument of comparative analysis is fine-tuned, especialized and completed as its use is improved. The way housing is understood in high density cities is shown as a unitary metric subsystem and its understanding is easy to reach and accumulate for future researchers, students or practicing architects.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Función de los blogs durante la crisis del Periodismo en España’ investiga el estado y percepción del soporte en 2015 y su evolución desde 2008, cuando estalló la economía occidental y con ello sus medios de comunicación, pero desde un punto de vista exclusivamente nacional. La tesis doctoral persigue determinar la incidencia de la herramienta y sus autores en la oferta informativa y su relación con el entorno de los medios, sin pasar por alto las redes sociales. La investigación científica en torno al ámbito informativo de los blogs es compleja. Los blogs nacen y mueren cada segundo, de forma espontánea, tanto fuera como dentro de los medios de comunicación, lo que dificulta cuantificar la dimensión del fenómeno. De hecho, por su inmediata caducidad, la bibliografía apenas aborda su cálculo en cuantía de números y se centra preferentemente en las características, en el contagio a otros formatos o en la percepción que logran por parte de la audiencia. Este trabajo de investigación seguirá el mismo camino crítico en su estudio. Sí que existe certeza sobre que el auge del fenómeno de los blogs ha quedado atrás. En España, ese periodo de crecimiento se fecha entre 2004 y 2010. Las redes sociales heredaron sus dos aportaciones fundamentales: la facilidad para publicar en internet cualquier tipo de contenido y la interacción lograda, quedándose de paso con la capacidad generada para poner de relieve tendencias, para denunciar abusos o para intervenir en la agenda informativa. Pero las redes sociales, aunque hayan debilitado el número de blogs, no son necesariamente un verdugo suyo. Los blogueros las usan para difundir sus posts o para relacionarse con sus seguidores. El trabajo que aquí presento tratará de determinar en qué han beneficiado y en qué han perjudicado Twitter o Facebook a los blogs, así como las sinergias provocadas entre los primeros y los segundos...

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Objetivo. Determinar los efectos del uso de la pelota de parto (PdP) durante el trabajo de parto en relación al tiempo de dilatación y expulsivo, la integridad perineal, la percepción de la intensidad del dolor y la seguridad. Método. Ensayo clínico controlado y aleatorizado. Participantes: nulíparas de 18 a 35 años, bajo riesgo, a término. Intervención: realización de movimientos sentadas sobre PdP durante el parto. Variables resultado: tiempo de dilatación y expulsivo; integridad perineal; percepción del dolor, recuerdo del dolor en el puerperio y pre-post intervención; tipo de parto; motivo de distocia; Apgar; ingreso en UCI neonatal. Análisis: comparación de grupos: t-Student para variables contínuas y Ji-cuadrado para categóricas. Significación p≤0,05. Resultados. 58 participantes (34 grupo experimental y 24 grupo control). El tiempo de dilatación y expulsivo, y la integridad perineal fue similar entre grupos. A los 4 cm el grupo experimental refirió menos dolor que el grupo control; 6,9 puntos vs 8,2 (p = 0,039). La diferencia en la percepción del dolor recordada en el puerperio inmediato fue de 1,48 puntos mayor en el grupo control (p = 0,003). La medición del dolor en el grupo experimental antes del uso de la PdP fue de 7,45 puntos y tras la intervención de 6,07 puntos (p < 0,001). En las variables relacionadas con la seguridad no hubo diferencias entre los grupos. Conclusión. El uso de pelotas de parto disminuye la percepción del dolor de parto y es segura.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’ús de productes derivats d’animals (Zooteràpia) ha format part de l’arsenal terapèutic dermatològic en les diverses cultures a través del temps. El Tresor de Beutat és un tractat medieval dedicat als cosmètics femenins i la salut, escrit en català medieval que es conserva a la Biblioteca de la Universitat de Barcelona. Descriu més de 200 remeis i tractaments per a les dones del segle XIV . Molts d’aquests tractaments eren productes d’origen animal. Estudiem el Tresor de Beutat per determinar quins animals i quines de les seves parts eren emprades, així com la forma d’utilització i indicacions terapèutiques. El document original va ser transcrit al català formal i el text analitzat per tal d’identificar totes les substàncies d’origen animal destinades a la teràpia. Aquestes substàncies van ser ordenades segons l’espècie, i es van estudiar les diferents parts emprades dels animals, la manera de preparació i les seves indicacions. Es van identificar un total de 223 substàncies o elements (animals, plantes i minerals) utilitzats com a remeis. D’ells, 47 (21%) eren d’origen animal, pertanyents a 30 animals, 15 mamífers, 7 aus, 4 animals marins, 2 de rèptils i amfibis i 2 insectes. Les diferents parts dels animals utilitzats inclouen la pell, el greix, els ronyons, el cervell, les banyes, les ungles, les secrecions anals, glàndules mamàries o salivals, la femta, o fins i tot l’animal sencer, en el cas dels mamífers. De les aus, s’usaven les plomes, ous, greixos, els nius, el cap, el suc propi de l’animal, i els excrements. Dels animals marins es va emprar l’animal a trossos, els ossos i els ous, i dels insectes els ous de formiga; la mel i la cera d’abelles; dels rèptils i amfibis els ous i la sang. Els tractaments s’utilitzen principalment per a la cara, com a cosmètics per al cabell i el cos, la higiene, la salut general i per la pell. També per l’esfera otorinolaringològica, ocular, els trastorns dentals, i ginecològics, així com per a l’alleugeriment del dolor. El Tresor de Beutat proporciona informació sobre el coneixement dels tractaments tòpics, amb una base científica (i no màgica) amb una àmplia gamma de recursos d’origen animal, amb les formulacions acuradament elaborades per a fins cosmètics i terapèutics dissenyats per assolir l’ideal de la bellesa i la salut en les dones medievals, sent evident en les bases d’alguns tractaments tòpics utilitzats en el segle XXI.