951 resultados para Probabilities


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La visión del riesgo es muy importante a la hora de diseñar y construir estructuras. Sobre todo en presencia de catástrofes naturales. Esta tesis presenta las consideraciones y recomendaciones a tener en cuenta para proyectar estructuras en zonas con riesgo de tsunami, tras haber estudiado todos los riesgos y soluciones posibles mediante tres técnicas diferentes. Esto se ha obtenido aplicando el método LOGRO (Líder de Organización de Gestión de Riesgos y Oportunidades). Se puede pensar que la única solución posible ante esta catástrofe es no construir en zonas vulnerables, pero no es posible. Hay que tener en cuenta que no todos los tsunamis son de la misma magnitud e intensidad y este trabajo contempla todos ellos con distintos niveles de actuación para cada situación. Por otro lado, existen lugares costeros muy urbanizados en los que sería imposible fomentar la emigración, y zonas turísticas donde lo que prima es la cercanía a la costa. Las resultados obtenidos de esta investigación tienen como objetivo reducir el riesgo vinculado al tsunami, minimizando tanto probabilidades de ocurrencia como consecuencias. The hazard view is very important when designing and building structures, mainly, under natural disasters. This thesis presents the considerations and recommendations to take into account to project structures in tsunami prone areas after having studied all the hazards and possible solutions through three different techniques. This has been obtained using LOGRO´s method. It is easy to think that the only possible solution to this disaster is not to build in vulnerable areas, but it is not like this. It has to be taken into account that not all tsunamis are of the same magnitude neither of the same intensity and this work considers all of them with different performance levels for each situation. On the other hand, there are very developed coastal places where it would be impossible to encourage emigration, and touristic areas where the closeness to the coast is what comes first. The aim of the results obtained in this research is to reduce the tsunami hazard minimising not only probabilities but also consequences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motivado por los últimos hallazgos realizados gracias a los recientes avances tecnológicos y misiones espaciales, el estudio de los asteroides ha despertado el interés de la comunidad científica. Tal es así que las misiones a asteroides han proliferado en los últimos años (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) incentivadas por su enorme interés científico. Los asteroides son constituyentes fundamentales en la evolución del Sistema Solar, son además grandes concentraciones de valiosos recursos naturales, y también pueden considerarse como objectivos estratégicos para la futura exploración espacial. Desde hace tiempo se viene especulando con la posibilidad de capturar objetos próximos a la Tierra (NEOs en su acrónimo anglosajón) y acercarlos a nuestro planeta, permitiendo así un acceso asequible a los mismos para estudiarlos in-situ, explotar sus recursos u otras finalidades. Por otro lado, las asteroides se consideran con frecuencia como posibles peligros de magnitud planetaria, ya que impactos de estos objetos con la Tierra suceden constantemente, y un asteroide suficientemente grande podría desencadenar eventos catastróficos. Pese a la gravedad de tales acontecimientos, lo cierto es que son ciertamente difíciles de predecir. De hecho, los ricos aspectos dinámicos de los asteroides, su modelado complejo y las incertidumbres observaciones hacen que predecir su posición futura con la precisión necesaria sea todo un reto. Este hecho se hace más relevante cuando los asteroides sufren encuentros próximos con la Tierra, y más aún cuando estos son recurrentes. En tales situaciones en las cuales fuera necesario tomar medidas para mitigar este tipo de riesgos, saber estimar con precisión sus trayectorias y probabilidades de colisión es de una importancia vital. Por ello, se necesitan herramientas avanzadas para modelar su dinámica y predecir sus órbitas con precisión, y son también necesarios nuevos conceptos tecnológicos para manipular sus órbitas llegado el caso. El objetivo de esta Tesis es proporcionar nuevos métodos, técnicas y soluciones para abordar estos retos. Las contribuciones de esta Tesis se engloban en dos áreas: una dedicada a la propagación numérica de asteroides, y otra a conceptos de deflexión y captura de asteroides. Por lo tanto, la primera parte de este documento presenta novedosos avances de apliación a la propagación dinámica de alta precisión de NEOs empleando métodos de regularización y perturbaciones, con especial énfasis en el método DROMO, mientras que la segunda parte expone ideas innovadoras para la captura de asteroides y comenta el uso del “ion beam shepherd” (IBS) como tecnología para deflectarlos. Abstract Driven by the latest discoveries enabled by recent technological advances and space missions, the study of asteroids has awakened the interest of the scientific community. In fact, asteroid missions have become very popular in the recent years (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) motivated by their outstanding scientific interest. Asteroids are fundamental constituents in the evolution of the Solar System, can be seen as vast concentrations of valuable natural resources, and are also considered as strategic targets for the future of space exploration. For long it has been hypothesized with the possibility of capturing small near-Earth asteroids and delivering them to the vicinity of the Earth in order to allow an affordable access to them for in-situ science, resource utilization and other purposes. On the other side of the balance, asteroids are often seen as potential planetary hazards, since impacts with the Earth happen all the time, and eventually an asteroid large enough could trigger catastrophic events. In spite of the severity of such occurrences, they are also utterly hard to predict. In fact, the rich dynamical aspects of asteroids, their complex modeling and observational uncertainties make exceptionally challenging to predict their future position accurately enough. This becomes particularly relevant when asteroids exhibit close encounters with the Earth, and more so when these happen recurrently. In such situations, where mitigation measures may need to be taken, it is of paramount importance to be able to accurately estimate their trajectories and collision probabilities. As a consequence, advanced tools are needed to model their dynamics and accurately predict their orbits, as well as new technological concepts to manipulate their orbits if necessary. The goal of this Thesis is to provide new methods, techniques and solutions to address these challenges. The contributions of this Thesis fall into two areas: one devoted to the numerical propagation of asteroids, and another to asteroid deflection and capture concepts. Hence, the first part of the dissertation presents novel advances applicable to the high accuracy dynamical propagation of near-Earth asteroids using regularization and perturbations techniques, with a special emphasis in the DROMO method, whereas the second part exposes pioneering ideas for asteroid retrieval missions and discusses the use of an “ion beam shepherd” (IBS) for asteroid deflection purposes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, a computer-based tool is developed to analyze student performance along a given curriculum. The proposed software makes use of historical data to compute passing/failing probabilities and simulates future student academic performance based on stochastic programming methods (MonteCarlo) according to the specific university regulations. This allows to compute the academic performance rates for the specific subjects of the curriculum for each semester, as well as the overall rates (the set of subjects in the semester), which are the efficiency rate and the success rate. Additionally, we compute the rates for the Bachelors degree, which are the graduation rate measured as the percentage of students who finish as scheduled or taking an extra year and the efficiency rate (measured as the percentage of credits of the curriculum with respect to the credits really taken). In Spain, these metrics have been defined by the National Quality Evaluation and Accreditation Agency (ANECA). Moreover, the sensitivity of the performance metrics to some of the parameters of the simulator is analyzed using statistical tools (Design of Experiments). The simulator has been adapted to the curriculum characteristics of the Bachelor in Engineering Technologies at the Technical University of Madrid(UPM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de esta tesis doctoral es profundizar en el análisis y diseño de un sistema inteligente para la predicción y control del acabado superficial en un proceso de fresado a alta velocidad, basado fundamentalmente en clasificadores Bayesianos, con el prop´osito de desarrollar una metodolog´ıa que facilite el diseño de este tipo de sistemas. El sistema, cuyo propósito es posibilitar la predicción y control de la rugosidad superficial, se compone de un modelo aprendido a partir de datos experimentales con redes Bayesianas, que ayudar´a a comprender los procesos dinámicos involucrados en el mecanizado y las interacciones entre las variables relevantes. Dado que las redes neuronales artificiales son modelos ampliamente utilizados en procesos de corte de materiales, también se incluye un modelo para fresado usándolas, donde se introdujo la geometría y la dureza del material como variables novedosas hasta ahora no estudiadas en este contexto. Por lo tanto, una importante contribución en esta tesis son estos dos modelos para la predicción de la rugosidad superficial, que se comparan con respecto a diferentes aspectos: la influencia de las nuevas variables, los indicadores de evaluación del desempeño, interpretabilidad. Uno de los principales problemas en la modelización con clasificadores Bayesianos es la comprensión de las enormes tablas de probabilidad a posteriori producidas. Introducimos un m´etodo de explicación que genera un conjunto de reglas obtenidas de árboles de decisión. Estos árboles son inducidos a partir de un conjunto de datos simulados generados de las probabilidades a posteriori de la variable clase, calculadas con la red Bayesiana aprendida a partir de un conjunto de datos de entrenamiento. Por último, contribuimos en el campo multiobjetivo en el caso de que algunos de los objetivos no se puedan cuantificar en números reales, sino como funciones en intervalo de valores. Esto ocurre a menudo en aplicaciones de aprendizaje automático, especialmente las basadas en clasificación supervisada. En concreto, se extienden las ideas de dominancia y frontera de Pareto a esta situación. Su aplicación a los estudios de predicción de la rugosidad superficial en el caso de maximizar al mismo tiempo la sensibilidad y la especificidad del clasificador inducido de la red Bayesiana, y no solo maximizar la tasa de clasificación correcta. Los intervalos de estos dos objetivos provienen de un m´etodo de estimación honesta de ambos objetivos, como e.g. validación cruzada en k rodajas o bootstrap.---ABSTRACT---The main objective of this PhD Thesis is to go more deeply into the analysis and design of an intelligent system for surface roughness prediction and control in the end-milling machining process, based fundamentally on Bayesian network classifiers, with the aim of developing a methodology that makes easier the design of this type of systems. The system, whose purpose is to make possible the surface roughness prediction and control, consists of a model learnt from experimental data with the aid of Bayesian networks, that will help to understand the dynamic processes involved in the machining and the interactions among the relevant variables. Since artificial neural networks are models widely used in material cutting proceses, we include also an end-milling model using them, where the geometry and hardness of the piecework are introduced as novel variables not studied so far within this context. Thus, an important contribution in this thesis is these two models for surface roughness prediction, that are then compared with respecto to different aspects: influence of the new variables, performance evaluation metrics, interpretability. One of the main problems with Bayesian classifier-based modelling is the understanding of the enormous posterior probabilitiy tables produced. We introduce an explanation method that generates a set of rules obtained from decision trees. Such trees are induced from a simulated data set generated from the posterior probabilities of the class variable, calculated with the Bayesian network learned from a training data set. Finally, we contribute in the multi-objective field in the case that some of the objectives cannot be quantified as real numbers but as interval-valued functions. This often occurs in machine learning applications, especially those based on supervised classification. Specifically, the dominance and Pareto front ideas are extended to this setting. Its application to the surface roughness prediction studies the case of maximizing simultaneously the sensitivity and specificity of the induced Bayesian network classifier, rather than only maximizing the correct classification rate. Intervals in these two objectives come from a honest estimation method of both objectives, like e.g. k-fold cross-validation or bootstrap.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hock and Mumby (2015) describe an approach to quantify dispersal probabilities along paths in networks of habitat patches. This approach basically consists in determining the most probable (most reliable) path for movement between habitat patches by calculating the product of the dispersal probabilities in each link (step) along the paths in the network. Although the paper by Hock and Mumby (2015) has value and includes interesting analyses (see comments in section 7 below), the approach they describe is not new.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract We consider a wide class of models that includes the highly reliable Markovian systems (HRMS) often used to represent the evolution of multi-component systems in reliability settings. Repair times and component lifetimes are random variables that follow a general distribution, and the repair service adopts a priority repair rule based on system failure risk. Since crude simulation has proved to be inefficient for highly-dependable systems, the RESTART method is used for the estimation of steady-state unavailability and other reliability measures. In this method, a number of simulation retrials are performed when the process enters regions of the state space where the chance of occurrence of a rare event (e.g., a system failure) is higher. The main difficulty involved in applying this method is finding a suitable function, called the importance function, to define the regions. In this paper we introduce an importance function which, for unbalanced systems, represents a great improvement over the importance function used in previous papers. We also demonstrate the asymptotic optimality of RESTART estimators in these models. Several examples are presented to show the effectiveness of the new approach, and probabilities up to the order of 10-42 are accurately estimated with little computational effort.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we focus on the selection of safeguards in a fuzzy risk analysis and management methodology for information systems (IS). Assets are connected by dependency relationships, and a failure of one asset may affect other assets. After computing impact and risk indicators associated with previously identified threats, we identify and apply safeguards to reduce risks in the IS by minimizing the transmission probabilities of failures throughout the asset network. However, as safeguards have associated costs, the aim is to select the safeguards that minimize costs while keeping the risk within acceptable levels. To do this, we propose a dynamic programming-based method that incorporates simulated annealing to tackle optimizations problems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral propone un modelo de comportamiento del paciente de la clínica dental, basado en la percepción de la calidad del servicio (SERVQUAL), la fidelización del paciente, acciones de Marketing Relacional y aspectos socioeconómicos relevantes, de los pacientes de clínicas dentales. En particular, el estudio de campo se lleva a cabo en el ámbito geográfico de la Comunidad de Madrid, España, durante los años 2012 y 2013. La primera parte del proceso de elaboración del modelo está basada en la recolección de datos. Para ello, se realizaron cinco entrevistas a expertos dentistas y se aplicaron dos tipos encuestas diferentes: una para el universo formado por el conjunto de los pacientes de las clínicas dentales y la otra para el universo formado el conjunto de los dentistas de las clínicas dentales de la Comunidad de Madrid. Se obtuvo muestras de: 200 encuestas de pacientes y 220 encuestas de dentistas activos colegiados en el Ilustre Colegio Oficial de Odontólogos y Estomatólogos de la I Región Madrid. En la segunda parte de la elaboración del modelo, se realizó el análisis de los datos, la inducción y síntesis del modelo propuesto. Se utilizó la metodología de modelos gráficos probabilísticos, específicamente, una Red Bayesiana, donde se integraron variables (nodos) y sus dependencias estadísticas causales (arcos dirigidos), que representan el conocimiento obtenido de los datos recopilados en las encuestas y el conocimiento derivado de investigaciones precedentes en el área. Se obtuvo una Red Bayesiana compuesta por 6 nodos principales, de los cuales dos de ellos son nodos de observación directa: “Revisit Intention” y “SERVQUAL”, y los otros cuatro nodos restantes son submodelos (agrupaciones de variables), estos son respectivamente: “Attitudinal”, “Disease Information”, “Socioeconomical” y “Services”. Entre las conclusiones principales derivadas del uso del modelo, como herramientas de inferencia y los análisis de las entrevistas realizadas se obtiene que: (i) las variables del nodo “Attitudinal” (submodelo), son las más sensibles y significativas. Al realizarse imputaciones particulares en las variables que conforman el nodo “Attitudinal” (“RelationalMk”, “Satisfaction”, “Recommendation” y “Friendship”) se obtienen altas probabilidades a posteriori en la fidelidad del paciente de la clínica dental, medida por su intención de revisita. (ii) En el nodo “Disease Information” (submodelo) se destaca la relación de dependencia causal cuando se imputa la variable “Perception of disease” en “SERVQUAL”, demostrando que la percepción de la gravedad del paciente condiciona significativamente la percepción de la calidad del servicio del paciente. Como ejemplo destacado, si se realiza una imputación en la variable “Clinic_Type” se obtienen altas probabilidades a posteriori de las variables “SERVQUAL” y “Revisit Intention”, lo que evidencia, que el tipo de clínica dental influye significativamente en la percepción de la calidad del servicio y en la fidelidad del paciente (intención de revisita). (iii) En el nodo “Socioeconomical” (submodelo) la variable “Sex” resultó no ser significativa cuando se le imputaban diferentes valores, por el contrario, la variable “Age” e “Income” mostraban altas variabilidades en las probabilidades a posteriori cuando se imputaba alguna variable del submodelo “Services”, lo que evidencia, que estas variables condicionan la intención de contratar servicios (“Services”), sobretodo en las franjas de edad de 30 a 51 años en pacientes con ingresos entre 3000€ y 4000€. (iv) En el nodo “Services” (submodelo) los pacientes de las clínicas dentales mostraron altas probabilidades a priori para contratar servicios de fisiotrapia oral y gingival: “Dental Health Education” y “Parking”. (v) Las variables de fidelidad del paciente medidas desde su perspectiva comportamental que fueron utilizadas en el modelo: “Visit/year” “Time_clinic”, no aportaron información significativa. Tampoco, la variable de fidelidad del cliente (actitudinal): “Churn Efford”. (vi) De las entrevistas realizadas a expertos dentistas se obtiene que, los propietarios de la clínica tradicional tienen poca disposición a implementar nuevas estrategias comerciales, debido a la falta de formación en la gestión comercial y por falta de recursos y herramientas. Existe un rechazo generalizado hacia los nuevos modelos de negocios de clínicas dentales, especialmente en las franquicias y en lo que a políticas comerciales se refiere. Esto evidencia una carencia de gerencia empresarial en el sector. Como líneas futuras de investigación, se propone profundizar en algunas relaciones de dependencia (causales) como SERVQUALServices; SatisfactionServices; RelationalMKServices, Perception of diseaseSatisfaction, entre otras. Así como, otras variables de medición de la fidelidad comportamental que contribuyan a la mejora del modelo, como por ej. Gasto del paciente y rentabilidad de la visita. ABSTRACT This doctoral dissertation proposes a model of the behavior of the dental-clinic customer, based on the service-quality perception (SERVQUAL), loyalty, Relational Marketing and some relevant socio-economical characteristics, of the dental-clinic customers. In particular, the field study has been developed in the geographical region of Madrid, Spain during the years 2012 and 2013. The first stage of the preparation of the model consist in the data gathering process. For this purpose, five interviews where realized to expert dentists and also two different types of surveys: one for the universe defined by the set of dental-clinic patients and the second for the universe defined by the set of the dentists of the dental clinics of the Madrid Community. A sample of 200 surveys where collected for patients and a sample of 220 surveys where collected from active dentists belonging to the Ilustre Colegio Oficial de Odontólogos y Estomatólogos de la I Región Madrid. In the second stage of the model preparation, the processes of data-analysis, induction and synthesis of the final model where performed. The Graphic Probabilistic Models methodology was used to elaborate the final model, specifically, a Bayesian Network, where the variables (nodes) and their statistical and causal dependencies where integrated and modeled, representing thus, the obtained knowledge from the data obtained by the surveys and the scientific knowledge derived from previous research in the field. A Bayesian Net consisting on six principal nodes was obtained, of which two of them are directly observable: “Revisit Intention” y “SERVQUAL”, and the remaining four are submodels (a grouping of variables). These are: “Attitudinal”, “Disease Information”, “Socioeconomical” and “Services”. The main conclusions derived from the model, as an inference tool, and the analysis of the interviews are: (i) the variables inside the “Attitudinal” node are the most sensitive and significant. By making some particular imputations on the variables that conform the “Attitudinal” node (“RelationalMk”, “Satisfaction”, “Recommendation” y “Friendship”), high posterior probabilities (measured in revisit intention) are obtained for the loyalty of the dental-clinic patient. (ii) In the “Disease Information” node, the causal relation between the “Perception of disease” and “SERVQUAL” when “Perception of disease” is imputed is highlighted, showing that the perception of the severity of the patient’s disease conditions significantly the perception of service quality. As an example, by imputing some particular values to the “Clinic_Type” node high posterior probabilities are obtained for the “SERVQUAL” variables and for “Revisit Intention” showing that the clinic type influences significantly in the service quality perception and loyalty (revisit intention). (iii) In the “Socioeconomical” variable, the variable “Sex” showed to be non-significant, however, the “Age” variable and “Income” show high variability in its posterior probabilities when some variable from the “Services” node where imputed, showing thus, that these variables condition the intention to buy new services (“Services”), especially in the age range from 30 to 50 years in patients with incomes between 3000€ and 4000€. (iv) In the “Services” submodel the dental-clinic patients show high priors to buy services such as oral and gingival therapy, Dental Health Education and “Parking” service. (v) The obtained loyalty measures, from the behavioral perspective, “Visit/year” and “Time_clinic”, do not add significant information to the model. Neither the attitudinal loyalty component “Churn Efford”. (vi) From the interviews realized to the expert dentists it is observed that the owners of the traditional clinics have a low propensity to apply new commercial strategies due to a lack of resources and tools. In general, there exists an opposition to new business models in the sector, especially to the franchise dental model. All of this evidences a lack in business management in the sector. As future lines of research, a deep look into some statistical and causal relations is proposed, such as: SERVQUALServices; SatisfactionServices; RelationalMKServices, Perception of diseaseSatisfaction, as well as new measurement variables related to attitudinal loyalty that contribute to improve the model, for example, profit per patient and per visit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El origen de esta tesis considera una lectura (quizás) pendiente: definir críticamente a la monumentalidad en el contexto de la arquitectura moderna. La idea de lo monumental durante la modernidad establece parte de la negación enmarcada en un planteamiento más amplio, basado en el rechazo a todo vínculo con la tradición y la historia. Desde el estatismo del monumento como objeto anacrónico, a la instrumentación de la arquitectura como herramienta simbólica, el proceso transformador más importante para la arquitectura durante el siglo XX contaba con algunas señales que nos daban la pauta para imaginar una realidad conformada por matices y desacuerdos fundamentales. La investigación no pretende contar una nueva historia sobre el periodo moderno, aunque irremediablemente se vale de su registro para presentar la discusión. Así, la idea crítica que sostenemos tiene que ver con las posibilidades estructurales y objetivas del discurso arquitectónico. Un discurso que se analiza en función de tres campos diferenciados, designados como: lo escrito, lo proyectado y lo construido en el periodo de estudio. De esta manera, pensamos que se favorecen las posibilidades dimensionales de la crítica y se amplía el sentido narrativo de la linealidad histórica. Para esta trabajo, la monumentalidad constituye una sustancia de estudio que evidencia las contradicciones, inadvertencias y matices necesarios en la articulación de una visión más compleja sobre los acontecimientos. Convencidos de la eficacia de un modelo dialéctico, que define la condición de lo monumental tanto en una valoración positiva (lo propicio, lo útil, lo verdadero, etc.) como negativa (lo falso, lo ostentoso, lo altisonante, etc.); observaremos que las diferencias alrededor del concepto derivan respectivamente en los significados de monumentalidad y monumentalismo. El contraste y la oposición de ideas expuestas a la luz favorece esa pretensión dimensional de la crítica. De los escritos de Sigfried Giedion -y la Nueva Monumentalidad- a Le Corbusier y la construcción de Chandigarh; o de la crítica anti-monumental de Karel Teige, pasando por el proyecto constructivista de Ivan Leonidov; los distintos episodios referidos en el trabajo encuentran sentido y rechazan las probabilidades arbitrarias y confusas de la selección temática. En ese orden, se busca asignar cierto rigor metodológico e incluso geométrico: la estructura propuesta toma el gran "periodo moderno" en dos bloques temporales, primera-modernidad (alrededor de 1910-1935) y tardo-modernidad (aprox. 1935-1960). En la primera parte se analizan una postura -en mayor medida- reactiva a las manifestaciones de esa hipotética condición monumental, mientras que en el segundo caso la postura se transforma y se perfila un nuevo escenario que anticipará ideológicamente parte de la evidente fractura posmoderna. A su vez, los tres registros anunciados previamente se componen de dos capítulos en función del marco temporal descrito; cada capítulo se desarrolla en tres partes que abundan en los aspectos preliminares de la discusión, luego exponen unos puntos centrales y finalmente orientan un posible recuento. El trabajo se complementa con una parte introductoria que fluye sobre definiciones concretas del monumento, el monumentalismo y la monumentalidad; además de que definirá la orientación de la crítica desarrollada. En una última intervención, a manera de conclusión, se reflexiona sobre el salto temporal, ideológico y estético que la posmodernidad representó para el tema de investigación.   Abstract The purpose of this thesis is to consider a (perhaps) pendant issue: to define monumentality by means of critical approach within the modern context of architecture. The idea of what monumental is during modernity establishes a fraction of the "modern typical denial" based on the rejection of any link to tradition and history. From the anachronistic idea of static monuments, to the orchestration of architecture as a symbolic tool, the most important process of the revolution of architecture during the 20th Century had a few signs that allowed us to imagine a reality conformed by fundamental nuances and disagreements. The aim of this research is not to tell a new story about the modern period, although inexorable it takes note of the register to present the discussion. Therefore, the idea of what we expose as criticism has to do with structural and objective possibilities in the architectural discourse. A speech analyzed in response to three differentiated domains designated here as: the written, the projected and the built during the selected time. In that way, we believe the dimensional possibilities of criticism are favored and the narrative sense of historical process is expanded. In terms of this investigation monumentality constitutes a matter of study that leads us to contradictions, unnoticed issues and necessary gray areas in the articulation of a complex vision about depicted events. We are convinced in the efficiency of a dialectical analysis model in order to define the monumental condition both as a positive value (propitious, useful, truthful, etc.) and a negative one (untrue, ostentatious, pompous, etc.); the idea is to show the differences around respective meanings deriving in terms of monumentality and monumentalism. Contrasting information and the opposition of ideas exposed in this light helped to develop the assumption of dimensional criticism. From Sigfried Giedeon's writings -and the New Monumentality- to Le Corbusier and the construction of Chandigarh; and from Karel Teige's anti-monumental criticism going through the revision of Ivan Leonidov's constructivist project; the variety of episodes referred to this work find some sense and reject the probabilities about confusion and arbitrary in the selection of themes. In order to assign some methodological precision and even geometrical criterion, the proposed structure divides the "great modern time" into two historical blocks: first-modernity (circa 1910-1935) and late-modernity (around 1935-1960). The first part analyzes a -mainly- reactive stance towards the hypothetical expressions of monumental condition, whereas in the second block the rejection tends to be transformed and to project a new scenario that will foresee the ideological postmodern fracture. At the same time, the three registers are composed by two chapters each one will operate depending on the described time frame. Each chapter is organized in three subsequent parts: at first explaining preliminary ideas for discussion, second presenting central points and finally orienting a partial recount. The research is complemented with an introductory episode describing specific definitions concerning the concepts of monument, monumentalism and monumentality; and mainly orienting the developed critique. In a final intervention, as a way of conclusion, we reflect on ideological and aesthetic qualities that postmodern time shift represented for this investigation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo busca identificar em que medida o pertencimento de classe social interfere nos sentidos e perspectivas do jovem brasileiro frente ao futebol espetáculo, bem como compreender os mecanismos sociais que determinam a decisão de os sujeitos investirem na carreira profissional esportiva em detrimento da trajetória escolar longa. Começamos com uma abordagem sociológica, a análise crítica dos processos de difusão, massificação e profissionalização do futebol ocorridas no contexto da sociedade pós-industrial. Enfocamos a conflituosa mutação da modalidade, inicialmente elitizada com fins social-distintivos para esporte de massa ideal de ascensão social da classe popular , além da dependência com a mídia, das razões que levaram a caracterizar-se como produto da indústria cultural, culminando com a transformação do futebol em mercadoria submetida às leis e lógica da sociedade de consumo. Em seguida, entrelaçamos as relações de poder, aliança e concorrência dos agentes sociais que participam do complexo campo das práticas esportivas com os canais com que o público jovem estabelece contato com o esporte espetáculo. Neste aspecto, especial atenção foi dada à mídia, difusora da ideologia de uma sociedade capitalista aberta, que reforça a idéia do esporte como via de ascensão social para indivíduos de baixa renda, na mesma medida em que oculta em seu discurso as reais probabilidades de concretização do sucesso esportivo. A pesquisa de campo foi realizada em duas escolas do município de São Bernardo do Campo (SP), uma da rede pública estadual e outra da rede particular de ensino. Assim, constituímos dois grupos com alunos de distintas classes sociais, compostos por estudantes do 1º ano do Ensino Médio, sexo masculino, com 15 anos de idade e praticantes de futebol nas aulas de Educação Física. Metodologicamente, fizemos uso da observação participante e de entrevistas como instrumentos para a coleta de dados. Conjugadas aos objetivos do estudo, estruturamos a análise do material colhido em seis categorias, articulando questões sobre o prosseguimento nos estudos e o trabalho, as tendências para a pratica esportiva profissional, as representações sociais em torno do futebol, os usos e costumes no tempo livre e as expectativas da pratica esportiva implicadas pela herança cultural familiar. Como referencial teórico de análise, utilizamos de Pierre Bourdieu os conceitos de campo, habitus, estratégia, capital econômico, social e, principalmente, capital cultural, partindo da hipótese de que o nível cultural dos alunos e seus familiares interferem nos sentidos e formas de apropriação do esporte. Entre outras conclusões, obtivemos como resultado a configuração de uma trajetória esportiva profissional voltada para os alunos de baixa classe social, em oposição à trajetória escolar longa, estrategicamente adotada pelos alunos de classe social alta.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo busca identificar em que medida o pertencimento de classe social interfere nos sentidos e perspectivas do jovem brasileiro frente ao futebol espetáculo, bem como compreender os mecanismos sociais que determinam a decisão de os sujeitos investirem na carreira profissional esportiva em detrimento da trajetória escolar longa. Começamos com uma abordagem sociológica, a análise crítica dos processos de difusão, massificação e profissionalização do futebol ocorridas no contexto da sociedade pós-industrial. Enfocamos a conflituosa mutação da modalidade, inicialmente elitizada com fins social-distintivos para esporte de massa ideal de ascensão social da classe popular , além da dependência com a mídia, das razões que levaram a caracterizar-se como produto da indústria cultural, culminando com a transformação do futebol em mercadoria submetida às leis e lógica da sociedade de consumo. Em seguida, entrelaçamos as relações de poder, aliança e concorrência dos agentes sociais que participam do complexo campo das práticas esportivas com os canais com que o público jovem estabelece contato com o esporte espetáculo. Neste aspecto, especial atenção foi dada à mídia, difusora da ideologia de uma sociedade capitalista aberta, que reforça a idéia do esporte como via de ascensão social para indivíduos de baixa renda, na mesma medida em que oculta em seu discurso as reais probabilidades de concretização do sucesso esportivo. A pesquisa de campo foi realizada em duas escolas do município de São Bernardo do Campo (SP), uma da rede pública estadual e outra da rede particular de ensino. Assim, constituímos dois grupos com alunos de distintas classes sociais, compostos por estudantes do 1º ano do Ensino Médio, sexo masculino, com 15 anos de idade e praticantes de futebol nas aulas de Educação Física. Metodologicamente, fizemos uso da observação participante e de entrevistas como instrumentos para a coleta de dados. Conjugadas aos objetivos do estudo, estruturamos a análise do material colhido em seis categorias, articulando questões sobre o prosseguimento nos estudos e o trabalho, as tendências para a pratica esportiva profissional, as representações sociais em torno do futebol, os usos e costumes no tempo livre e as expectativas da pratica esportiva implicadas pela herança cultural familiar. Como referencial teórico de análise, utilizamos de Pierre Bourdieu os conceitos de campo, habitus, estratégia, capital econômico, social e, principalmente, capital cultural, partindo da hipótese de que o nível cultural dos alunos e seus familiares interferem nos sentidos e formas de apropriação do esporte. Entre outras conclusões, obtivemos como resultado a configuração de uma trajetória esportiva profissional voltada para os alunos de baixa classe social, em oposição à trajetória escolar longa, estrategicamente adotada pelos alunos de classe social alta.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Understanding the relationship between animal community dynamics and landscape structure has become a priority for biodiversity conservation. In particular, predicting the effects of habitat destruction that confine species to networks of small patches is an important prerequisite to conservation plan development. Theoretical models that predict the occurrence of species in fragmented landscapes, and relationships between stability and diversity do exist. However, reliable empirical investigations of the dynamics of biodiversity have been prevented by differences in species detection probabilities among landscapes. Using long-term data sampled at a large spatial scale in conjunction with a capture-recapture approach, we developed estimates of parameters of community changes over a 22-year period for forest breeding birds in selected areas of the eastern United States. We show that forest fragmentation was associated not only with a reduced number of forest bird species, but also with increased temporal variability in the number of species. This higher temporal variability was associated with higher local extinction and turnover rates. These results have major conservation implications. Moreover, the approach used provides a practical tool for the study of the dynamics of biodiversity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Two variables define the topological state of closed double-stranded DNA: the knot type, K, and ΔLk, the linking number difference from relaxed DNA. The equilibrium distribution of probabilities of these states, P(ΔLk, K), is related to two conditional distributions: P(ΔLk|K), the distribution of ΔLk for a particular K, and P(K|ΔLk) and also to two simple distributions: P(ΔLk), the distribution of ΔLk irrespective of K, and P(K). We explored the relationships between these distributions. P(ΔLk, K), P(ΔLk), and P(K|ΔLk) were calculated from the simulated distributions of P(ΔLk|K) and of P(K). The calculated distributions agreed with previous experimental and theoretical results and greatly advanced on them. Our major focus was on P(K|ΔLk), the distribution of knot types for a particular value of ΔLk, which had not been evaluated previously. We found that unknotted circular DNA is not the most probable state beyond small values of ΔLk. Highly chiral knotted DNA has a lower free energy because it has less torsional deformation. Surprisingly, even at |ΔLk| > 12, only one or two knot types dominate the P(K|ΔLk) distribution despite the huge number of knots of comparable complexity. A large fraction of the knots found belong to the small family of torus knots. The relationship between supercoiling and knotting in vivo is discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Structural genomics aims to solve a large number of protein structures that represent the protein space. Currently an exhaustive solution for all structures seems prohibitively expensive, so the challenge is to define a relatively small set of proteins with new, currently unknown folds. This paper presents a method that assigns each protein with a probability of having an unsolved fold. The method makes extensive use of protomap, a sequence-based classification, and scop, a structure-based classification. According to protomap, the protein space encodes the relationship among proteins as a graph whose vertices correspond to 13,354 clusters of proteins. A representative fold for a cluster with at least one solved protein is determined after superposition of all scop (release 1.37) folds onto protomap clusters. Distances within the protomap graph are computed from each representative fold to the neighboring folds. The distribution of these distances is used to create a statistical model for distances among those folds that are already known and those that have yet to be discovered. The distribution of distances for solved/unsolved proteins is significantly different. This difference makes it possible to use Bayes' rule to derive a statistical estimate that any protein has a yet undetermined fold. Proteins that score the highest probability to represent a new fold constitute the target list for structural determination. Our predicted probabilities for unsolved proteins correlate very well with the proportion of new folds among recently solved structures (new scop 1.39 records) that are disjoint from our original training set.