311 resultados para ignorance


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito del presente trabajo es reconocer, cómo a partir de las tensiones globales y locales, de carácter socio - espacial e imbricadas en el proceso de metropolización que acusa el ámbito expandido de la ciudad de Paraná, es factible identificar y analizar los criterios básicos para proyectar una inédita gestión metropolitana dentro del espacio regional que constituyen tanto el ejido de la capital de la Provincia de Entre Ríos como el de sus tres municipios conurbados. En consecuencia y a tal fin, se intenta aquí establecer los nuevos desafíos incorporados a la gestión urbano-ambiental, tanto provincial como municipal, dentro de los que se platea articular la intervención estatal y la participación comunitaria, en el marco de un proceso de ordenamiento territorial del ámbito metropolizado en esas cuatro jurisdicciones en las que hoy habitan más de trescientos mil comprovincianos. Se trata, por tanto, de un proyecto estratégico que institucionalmente persiga la posibilidad de articular en simultáneo cuatro criterios políticos considerados aquí básicos para la gestión democrática del territorio metropolitano: la gobernabilidad, la competitividad, la sustentabilidad y la inclusión social. Criterios que, dentro de esa inteligencia, guiarán el análisis desarrollado sobre propuestas de actuación, jurídico-normativas y de gestión para abordar la compleja problemática del espacio urbano-regional. Es en tal contexto entonces, y dentro de esos principios primordiales para la intervención urbano-territorial, en el que se estima posible plantear, desde el ámbito institucional del Gobierno de la Provincia y de los gobiernos municipales, un acotado y preciso conjunto de políticas sectoriales básicas de ordenamiento que habiliten al despliegue de estrategias comunes y de consenso social posible, destinadas a transformar las críticas condiciones por las que atraviesa la conurbación en su conjunto, sin por eso vulnerar la autonomía de la jurisdicciones municipales incluidas en el espacio geográfico. Concluyendo, en el presente trabajo se analizan e identifican en forma iniciática, los criterios esenciales para el logro de los objetivos territoriales y las metas institucionales que dentro de la gestión metropolitana, puedan asumir el Estado Provincial y las jurisdicciones municipales, en tanto dispositivos gubernamentales destinados a que legal y orgánicamente, sean orientadas las políticas que tengan el propósito de afrontar tanto los procesos territoriales distorsivos como los déficit, las asimetrías y las carencias socio-ambientales que acusa la población del Gran Paraná

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo pretende mostrar cómo la hamartía es el componente principal de la obra de Sófocles y cómo convierte a Creonte en el personaje principal por ser quien la padece. Se analizarán episodios en los que se hace referencia al error en relación a Creonte, los cuales demuestran cómo a la vez que se erige en su figura de tirano también se va produciendo su caída

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito del estudio fue analizar el nivel de conocimiento y dominio sobre el doping que tienen las deportistas élite en México, para emprender acciones que permitan educar a los deportistas y su equipo de entrenamiento en el juego limpio, a través de acciones psicopedagógicas que faciliten un aprendizaje significativo, evitando que las deportistas usen de manera voluntaria o involuntaria sustancias y métodos prohibidos. Las pregunta principal que orientó la investigación fue la siguiente: ¿Qué nivel de conocimiento y dominio sobre el doping tienen las deportistas élite en México?. Para la investigación de campo, se elaboró un cuestionario de 22 preguntas para explorar el nivel de conocimiento y dominio que tenían los deportistas considerados élite por pertenecer a la selección estatal o nacional de los deportes de gimnasia olímpica, tiro con arco y hockey sobre pasto. Las respuestas encontradas demuestran que en algunos aspectos existe desconocimiento en materia de dopaje, y se devela la necesidad de profundizar en el programa de educación antidoping. Se manifiesta que la ignorancia que existe en diferentes aspectos, pone en riesgo a los deportistas en el uso inconsciente de sustancias y métodos prohibidos en el deporte

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Leopoldo Alas, 'Clarín', acude con frecuencia a los clásicos grecolatinos, no pocas veces con intención irónica o crítica, demostrando la ignorancia o mal uso de la tradición grecorromana en su época. Examino algunos aspectos de esa tradición en La Regenta (1884-5), distribuyendo los materiales en varios apartados: observaciones sobre el conocimiento o la ignorancia de las lenguas griega o latina; alusiones a autores u obras de la literatura griega; referencias directas a autores u obras de la literatura latina; personajes históricos griegos o romanos; notas de cultura grecorromana; apunte sobre el léxico de origen griego o latino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The problem is general: modern architects and engineers are trying to understand historic structures using the wrong theoretical frame, the classic (elastic) thery of structures developed in the 19th Century for iron and stell, and in the 20th century for reinforced concrete, disguised with "modern" computer packages, mainly FEM, but also others. Masonry is an essentially different material, and the structural equations must be adapted accordingly. It is not a matter of "taste" or "opinion", and the consequences are before us. Since, say 1920s, historic monuments have suffered the aggression of generations of archietcts and engineers, trying to transform masonry in reinfored concrete or steel. The damage to the monuments and the expense has been, and is, enormous. However, as we have an adequate theory (modern limit analysis of masonry structures, Heyman 1966) which encompasses the "old theory" used successfully by the 18th and 19th Century practical engineers (from Perronet to Sejourné), it is a matter of "Ethics" not to use the wrong approach. It is also "contra natura" to modify the material masonry with indiscriminate injections, stitchings, etc. It is insane to consider, suddenly, that buildings which are Centuries or milennia old, are suddenly in danger of collapse. Maintenance is necessary but not the actual destruction of the constructive essence of the monument. A cocktail of "ignorance, fear and greed" is acting under the best of intentions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Machine learning techniques are used for extracting valuable knowledge from data. Nowa¬days, these techniques are becoming even more important due to the evolution in data ac¬quisition and storage, which is leading to data with different characteristics that must be exploited. Therefore, advances in data collection must be accompanied with advances in machine learning techniques to solve new challenges that might arise, on both academic and real applications. There are several machine learning techniques depending on both data characteristics and purpose. Unsupervised classification or clustering is one of the most known techniques when data lack of supervision (unlabeled data) and the aim is to discover data groups (clusters) according to their similarity. On the other hand, supervised classification needs data with supervision (labeled data) and its aim is to make predictions about labels of new data. The presence of data labels is a very important characteristic that guides not only the learning task but also other related tasks such as validation. When only some of the available data are labeled whereas the others remain unlabeled (partially labeled data), neither clustering nor supervised classification can be used. This scenario, which is becoming common nowadays because of labeling process ignorance or cost, is tackled with semi-supervised learning techniques. This thesis focuses on the branch of semi-supervised learning closest to clustering, i.e., to discover clusters using available labels as support to guide and improve the clustering process. Another important data characteristic, different from the presence of data labels, is the relevance or not of data features. Data are characterized by features, but it is possible that not all of them are relevant, or equally relevant, for the learning process. A recent clustering tendency, related to data relevance and called subspace clustering, claims that different clusters might be described by different feature subsets. This differs from traditional solutions to data relevance problem, where a single feature subset (usually the complete set of original features) is found and used to perform the clustering process. The proximity of this work to clustering leads to the first goal of this thesis. As commented above, clustering validation is a difficult task due to the absence of data labels. Although there are many indices that can be used to assess the quality of clustering solutions, these validations depend on clustering algorithms and data characteristics. Hence, in the first goal three known clustering algorithms are used to cluster data with outliers and noise, to critically study how some of the most known validation indices behave. The main goal of this work is however to combine semi-supervised clustering with subspace clustering to obtain clustering solutions that can be correctly validated by using either known indices or expert opinions. Two different algorithms are proposed from different points of view to discover clusters characterized by different subspaces. For the first algorithm, available data labels are used for searching for subspaces firstly, before searching for clusters. This algorithm assigns each instance to only one cluster (hard clustering) and is based on mapping known labels to subspaces using supervised classification techniques. Subspaces are then used to find clusters using traditional clustering techniques. The second algorithm uses available data labels to search for subspaces and clusters at the same time in an iterative process. This algorithm assigns each instance to each cluster based on a membership probability (soft clustering) and is based on integrating known labels and the search for subspaces into a model-based clustering approach. The different proposals are tested using different real and synthetic databases, and comparisons to other methods are also included when appropriate. Finally, as an example of real and current application, different machine learning tech¬niques, including one of the proposals of this work (the most sophisticated one) are applied to a task of one of the most challenging biological problems nowadays, the human brain model¬ing. Specifically, expert neuroscientists do not agree with a neuron classification for the brain cortex, which makes impossible not only any modeling attempt but also the day-to-day work without a common way to name neurons. Therefore, machine learning techniques may help to get an accepted solution to this problem, which can be an important milestone for future research in neuroscience. Resumen Las técnicas de aprendizaje automático se usan para extraer información valiosa de datos. Hoy en día, la importancia de estas técnicas está siendo incluso mayor, debido a que la evolución en la adquisición y almacenamiento de datos está llevando a datos con diferentes características que deben ser explotadas. Por lo tanto, los avances en la recolección de datos deben ir ligados a avances en las técnicas de aprendizaje automático para resolver nuevos retos que pueden aparecer, tanto en aplicaciones académicas como reales. Existen varias técnicas de aprendizaje automático dependiendo de las características de los datos y del propósito. La clasificación no supervisada o clustering es una de las técnicas más conocidas cuando los datos carecen de supervisión (datos sin etiqueta), siendo el objetivo descubrir nuevos grupos (agrupaciones) dependiendo de la similitud de los datos. Por otra parte, la clasificación supervisada necesita datos con supervisión (datos etiquetados) y su objetivo es realizar predicciones sobre las etiquetas de nuevos datos. La presencia de las etiquetas es una característica muy importante que guía no solo el aprendizaje sino también otras tareas relacionadas como la validación. Cuando solo algunos de los datos disponibles están etiquetados, mientras que el resto permanece sin etiqueta (datos parcialmente etiquetados), ni el clustering ni la clasificación supervisada se pueden utilizar. Este escenario, que está llegando a ser común hoy en día debido a la ignorancia o el coste del proceso de etiquetado, es abordado utilizando técnicas de aprendizaje semi-supervisadas. Esta tesis trata la rama del aprendizaje semi-supervisado más cercana al clustering, es decir, descubrir agrupaciones utilizando las etiquetas disponibles como apoyo para guiar y mejorar el proceso de clustering. Otra característica importante de los datos, distinta de la presencia de etiquetas, es la relevancia o no de los atributos de los datos. Los datos se caracterizan por atributos, pero es posible que no todos ellos sean relevantes, o igualmente relevantes, para el proceso de aprendizaje. Una tendencia reciente en clustering, relacionada con la relevancia de los datos y llamada clustering en subespacios, afirma que agrupaciones diferentes pueden estar descritas por subconjuntos de atributos diferentes. Esto difiere de las soluciones tradicionales para el problema de la relevancia de los datos, en las que se busca un único subconjunto de atributos (normalmente el conjunto original de atributos) y se utiliza para realizar el proceso de clustering. La cercanía de este trabajo con el clustering lleva al primer objetivo de la tesis. Como se ha comentado previamente, la validación en clustering es una tarea difícil debido a la ausencia de etiquetas. Aunque existen muchos índices que pueden usarse para evaluar la calidad de las soluciones de clustering, estas validaciones dependen de los algoritmos de clustering utilizados y de las características de los datos. Por lo tanto, en el primer objetivo tres conocidos algoritmos se usan para agrupar datos con valores atípicos y ruido para estudiar de forma crítica cómo se comportan algunos de los índices de validación más conocidos. El objetivo principal de este trabajo sin embargo es combinar clustering semi-supervisado con clustering en subespacios para obtener soluciones de clustering que puedan ser validadas de forma correcta utilizando índices conocidos u opiniones expertas. Se proponen dos algoritmos desde dos puntos de vista diferentes para descubrir agrupaciones caracterizadas por diferentes subespacios. Para el primer algoritmo, las etiquetas disponibles se usan para bus¬car en primer lugar los subespacios antes de buscar las agrupaciones. Este algoritmo asigna cada instancia a un único cluster (hard clustering) y se basa en mapear las etiquetas cono-cidas a subespacios utilizando técnicas de clasificación supervisada. El segundo algoritmo utiliza las etiquetas disponibles para buscar de forma simultánea los subespacios y las agru¬paciones en un proceso iterativo. Este algoritmo asigna cada instancia a cada cluster con una probabilidad de pertenencia (soft clustering) y se basa en integrar las etiquetas conocidas y la búsqueda en subespacios dentro de clustering basado en modelos. Las propuestas son probadas utilizando diferentes bases de datos reales y sintéticas, incluyendo comparaciones con otros métodos cuando resulten apropiadas. Finalmente, a modo de ejemplo de una aplicación real y actual, se aplican diferentes técnicas de aprendizaje automático, incluyendo una de las propuestas de este trabajo (la más sofisticada) a una tarea de uno de los problemas biológicos más desafiantes hoy en día, el modelado del cerebro humano. Específicamente, expertos neurocientíficos no se ponen de acuerdo en una clasificación de neuronas para la corteza cerebral, lo que imposibilita no sólo cualquier intento de modelado sino también el trabajo del día a día al no tener una forma estándar de llamar a las neuronas. Por lo tanto, las técnicas de aprendizaje automático pueden ayudar a conseguir una solución aceptada para este problema, lo cual puede ser un importante hito para investigaciones futuras en neurociencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Gestión Forestal Sustentable es la principal herramienta para garantizar la compatibilidad entre producción y conservación en todos los bosques, y mas especialmente en los que exhiben niveles máximos de diversidad, como los tropicales humedos. En ellos existe un gran desconocimiento sobre la gestión de los recursos maderables de pequeña dimensión y los no maderables (PFNM) con mercado local. La madera redonda de pequeño diámetro es un recurso forestal de bajo valor económico extraído tradicionalmente por los pobladores locales de las zonas tropicales húmedas para construir sus viviendas. Los fustes de mejor calidad se obtienen del bosque de varillal, o bosques sobre arena blanca, altamente oligotroficos, sin potencial agrícola, escasos, dispersos, de pequeña superficie, gran fragilidad y alto porcentaje de endemismos. En el entorno de los centros urbanos de la Amazonia peruana, esta madera supone uno de los principales ingresos económicos para la población local, al ser extraida para su comercialización en dichos centros urbanos. Esto supone un riesgo de sobre-explotacion cuyos efectos se desconocen hasta el momento. Para acercarnos la situacion ambiental, social y económica asociada al varillal, se han realizado inventarios botanicos y de estructura forestal, se ha descrito el sistema de aprovechamiento tradicional y cuantificado sus efectos y, finalmente, se han realizado encuestas orientadas a analizar la situación social y economica de las comunidades locales que extraen y comercializan sus productos. El aprovechamiento tradicional del varillal es una actividad de bajo impacto que no emplea maquinaria y se centra en la extracción de fustes con diámetro normal entre 5 y 15 cm y características especificas de longitud, forma de fuste y calidad de la especie. Los resultados ponen de manifiesto la relevancia de la distancia existente entre el punto de extracción y el punto de venta, asi como la gran influencia que tiene la situación social y económica en la gestión sustentable del varillal. Todo ello pone en evidencia que si existe un cierto efecto negativo de la extracción intensa y continuada que han sufrido los varíllales mas próximos al centro urbano. Para favorecer una Gestión Forestal Sustentable que reduzca este efecto negativo es esencial llevar a cabo una adecuada planificación comunal que permita establecer una secuencia ordenada de zonas de corta y un cronograma para su gestión y aprovechamiento que evite la extracción repetida en un mismo varillal. ABSTRACT Sustainable forest management is the main tool to ensure compatibility between production and conservation in all forests, and especially in those exhibiting the maximum levels of diversity, such as tropical rain. Within them there is a great ignorance about the management of small sized timber and non-timber resources (PFMN) in the local market. The small-diameter round timber is a forest resource of low economic value extracted traditionally by local people of the humid tropics to build their homes. The better quality shafts are obtained from varillal forest or forests on white sand, highly oligotrophic, no agricultural potential, few, scattered, small size, fragility and high percentage of endemic species. In the environment of the urban centres of the Peruvian Amazon, this wood is one of the main incomes for the local population, since it is extracted for marketing in these urban centres. This poses a risk of overexploitation whose effects are unknown so far. To approach the environmental, social and economic situation associated to the varillal, botanical and forest structure inventories have been conducted, traditional harvesting systems described and their effects quantified and targeted surveys have eventually been conducted to analyse the social and local economic situation of the communities that extract and sell the products. The traditional use of varillal is a low-impact activity that does not use machinery and focuses on the extraction of shafts with a normal diameter of between 5 and 15 cm and specific characteristics in length, stem form and quality of the species. The results highlight the importance of the distance from the extraction point and the sale point, and the great influence of the social and economic situation in the sustainable management of varillal. This demonstrates that there is indeed a negative effect caused by the intense and continuous extraction that varillales closest to the city centre have suffered. To encourage a Sustainable Forest Management to reduce this negative effect is essential to conduct proper community planning in order to establish an ordered sequence of areas and a chronogram for their management and use, to avoid a repeat extraction in the same varillal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La corrosión bajo tensiones (SCC) es un problema de gran importancia en las aleaciones de aluminio de máxima resistencia (serie Al-Zn-Mg-Cu). La utilización de tratamientos térmicos sobremadurados, en particular el T73, ha conseguido prácticamente eliminar la susceptibilidad a corrosión bajo tensiones en dichas aleaciones pero a costa de reducir su resistencia mecánica. Desde entonces se ha tratado de optimizar simultáneamente ambos comportamientos, encontrándose para ello diversos inconvenientes entre los que destacan: la dificultad de medir experimentalmente el crecimiento de grieta por SCC, y el desconocimiento de las causas y el mecanismo por el cual se produce la SCC. Los objetivos de esta Tesis son mejorar el sistema de medición de grietas y profundizar en el conocimiento de la SCC, con el fin de obtener tratamientos térmicos que aúnen un óptimo comportamiento tanto en SCC como mecánico en las aleaciones de aluminio de máxima resistencia utilizadas en aeronáutica. Para conseguir los objetivos anteriormente descritos se han realizado unos cuarenta tratamientos térmicos diferentes, de los cuales la gran mayoría son nuevos, para profundizar en el conocimiento de la influencia de la microestructura (fundamentalmente, de los precipitados coherentes) en el comportamiento de las aleaciones Al-Zn-Mg-Cu, y estudiar la viabilidad de nuevos tratamientos apoyados en el conocimiento adquirido. Con el fin de obtener unos resultados aplicables a productos o semiproductos de aplicación aeronáutica, los tratamientos térmicos se han realizado a trozos grandes de una plancha de 30 mm de espesor de la aleación de aluminio 7475, muy utilizada en las estructuras aeronáuticas. Asimismo con el objeto de conseguir una mayor fiabilidad de los resultados obtenidos se han utilizado, normalmente, tres probetas de cada tratamiento para los diferentes ensayos realizados. Para la caracterización de dichos tratamientos se han utilizado diversas técnicas: medida de dureza y conductividad eléctrica, ensayos de tracción, calorimetría diferencial de barrido (DSC), metalografía, fractografía, microscopia electrónica de transmisión (MET) y de barrido (MEB), y ensayos de crecimiento de grieta en probeta DCB, que a su vez han permitido hacer una estimación del comportamiento en tenacidad del material. Las principales conclusiones del estudio realizado se pueden resumir en las siguientes: Se han diseñado y desarrollado nuevos métodos de medición de grieta basados en el empleo de la técnica de ultrasonidos, que permiten medir el crecimiento de grieta por corrosión bajo tensiones con la precisión y fiabilidad necesarias para valorar adecuadamente la susceptibilidad a corrosión bajo tensiones. La mejora de medida de la posición del frente de grieta ha dado lugar, entre otras cosas, a la definición de un nuevo ensayo a iniciación en probetas preagrietadas. Asimismo, se ha deducido una nueva ecuación que permite calcular el factor de intensidad de tensiones existente en punta de grieta en probetas DCB teniendo en cuenta la influencia de la desviación del plano de crecimiento de la grieta del plano medio de la probeta. Este aspecto ha sido determinante para poder explicar los resultados experimentales obtenidos ya que el crecimiento de la grieta por un plano paralelo al plano medio de la probeta DCB pero alejado de él reduce notablemente el factor de intensidades de tensiones que actúa en punta de grieta y modifica las condiciones reales del ensayo. Por otro lado, se han identificado los diferentes constituyentes de la microestructura de precipitación de todos los tratamientos térmicos estudiados y, en especial, se ha conseguido constatar (mediante MET y DSC) la existencia de zonas de Guinier-Preston del tipo GP(II) en la microestructura de numerosos tratamientos térmicos (no descrita en la bibliografía para las aleaciones del tipo de la estudiada) lo que ha permitido establecer una nueva interpretación de la evolución de la microestructura en los diferentes tratamientos. Al hilo de lo anterior, se han definido nuevas secuencias de precipitación para este tipo de aleaciones, que han permitido entender mejor la constitución de la microestructura y su relación con las propiedades en los diferentes tratamientos térmicos estudiados. De igual manera, se ha explicado el papel de los diferentes microconstituyentes en diversas propiedades mecánicas (propiedades a tracción, dureza y tenacidad KIa); en particular, el estudio realizado de la relación de la microestructura con la tenacidad KIa es inédito. Por otra parte, se ha correlacionado el comportamiento en corrosión bajo tensiones, tanto en la etapa de incubación de grieta como en la de propagación, con las características medidas de los diferentes constituyentes microestructurales de los tratamientos térmicos ensayados, tanto de interior como de límite de grano, habiéndose obtenido que la microestructura de interior de grano tiene una mayor influencia en el comportamiento en corrosión bajo tensiones que la de límite de grano. De forma especial, se ha establecido la importancia capital, y muy negativa, de la presencia en la microestructura de zonas de Guinier-Preston en el crecimiento de la grieta por corrosión bajo tensiones. Finalmente, como consecuencia de todo lo anterior, se ha propuesto un nuevo mecanismo por el que se produce la corrosión bajo tensiones en este tipo de aleaciones de aluminio, y que de forma muy resumida se puede concretar lo siguiente: la acumulación de hidrógeno (formado, básicamente, por un proceso corrosivo de disolución anódica) delante de la zonas GP (en especial, de las zonas GP(I)) próximas a la zona libre de precipitados que se desarrolla alrededor del límite de grano provoca enfragilización local y causa el rápido crecimiento de grieta característico de algunos tratamientos térmicos de este tipo de aleaciones. ABSTRACT The stress corrosion cracking (SCC) is a major problem in the aluminum alloys of high resistance (series Al-Zn-Mg-Cu). The use of overaged heat treatments, particularly T73 has achieved virtually eliminate the susceptibility to stress corrosion cracking in such alloys but at the expense of reducing its mechanical strength. Since then we have tried to simultaneously optimize both behaviors, several drawbacks found for it among them: the difficulty of measuring experimentally the SCC crack growth, and ignorance of the causes and the mechanism by which SCC occurs. The objectives of this thesis are to improve the measurement system of cracks and deeper understanding of the SCC, in order to obtain heat treatments that combine optimum performance in both SCC and maximum mechanical strength in aluminum alloys used in aerospace To achieve the above objectives have been made about forty different heat treatments, of which the vast majority are new, to deepen the understanding of the influence of microstructure (mainly of coherent precipitates) in the behavior of the alloys Al -Zn-Mg-Cu, and study the feasibility of new treatments supported by the knowledge gained. To obtain results for products or semi-finished aircraft application, heat treatments were performed at a large pieces plate 30 mm thick aluminum alloy 7475, widely used in aeronautical structures. Also in order to achieve greater reliability of the results obtained have been used, normally, three specimens of each treatment for various tests. For the characterization of these treatments have been used several techniques: measurement of hardness and electrical conductivity, tensile testing, differential scanning calorimetry (DSC), metallography, fractography, transmission (TEM) and scanning (SEM) electron microscopy, and crack growth tests on DCB specimen, which in turn have allowed to estimate the behavior of the material in fracture toughness. The main conclusions of the study can be summarized as follows: We have designed and developed new methods for measuring crack based on the use of the ultrasound technique, for measuring the growth of stress corrosion cracks with the accuracy and reliability needed to adequately assess the susceptibility to stress corrosion. Improved position measurement of the crack front has resulted, among other things, the definition of a new initiation essay in pre cracked specimens. Also, it has been inferred a new equation to calculate the stress intensity factor in crack tip existing in DCB specimens considering the influence of the deviation of the plane of the crack growth of the medium plane of the specimen. This has been crucial to explain the experimental results obtained since the crack growth by a plane parallel to the medium plane of the DCB specimen but away from it greatly reduces the stress intensity factor acting on the crack tip and modifies the actual conditions of the essay. Furthermore, we have identified the various constituents of the precipitation microstructure of all heat treatments studied and, in particular note has been achieved (by TEM and DSC) the existence of the type GP (II) of Guinier-Preston zones in the microstructure of several heat treatments (not described in the literature for alloys of the type studied) making it possible to establish a new interpretation of the evolution of the microstructure in the different treatments. In line with the above, we have defined new precipitation sequences for these alloys, which have allowed a better understanding of the formation of the microstructure in relation to the properties of different heat treatments studied. Similarly, explained the role of different microconstituents in various mechanical properties (tensile properties, hardness and toughness KIa), in particular, the study of the relationship between the tenacity KIa microstructure is unpublished. Moreover, has been correlated to the stress corrosion behavior, both in the incubation step as the crack propagation, with the measured characteristics of the various microstructural constituents heat treatments tested, both interior and boundary grain, having obtained the internal microstructure of grain has a greater influence on the stress corrosion cracking behavior in the grain boundary. In a special way, has established the importance, and very negative, the presence in the microstructure of Guinier-Preston zones in crack growth by stress corrosion. Finally, following the above, we have proposed a new mechanism by which stress corrosion cracking occurs in this type of aluminum alloy, and, very briefly, one can specify the following: the accumulation of hydrogen (formed basically by a corrosive process of anodic dissolution) in front of the GP zones (especially the GP (I) zones) near the precipitates free zone that develops around grain boundary causes local embrittlement which characterizes rapid crack growth of some heat treatments such alloys.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cuenca del Duero constituye un vasto territorio ibérico cuyo paisaje se encuentra actualmente muy alterado por la mano del hombre y es prácticamente imposible localizar alguna manifestación de su cubierta vegetal natural. Aunque la historia de la vegetación en los sectores central y oriental es relativamente bien conocida, en su mitad occidental los registros paleoecológicos estudiados hasta la fecha son prácticamente inexistentes. Esto hace que se desconozca la respuesta de la vegetación a las diferentes oscilaciones climáticas que se han producido desde el Último Máximo Glaciar, cuál fue el impacto de las diferentes culturas sobre el medio, cuándo se produjo una alteración profunda de la vegetación natural y cuál ha sido la historia de los incendios. Este último aspecto, el papel e importancia de los incendios, reviste un especial interés en la península Ibérica dada su situación geográfica y climática dentro de la cuenca Mediterránea, donde el fuego es un factor ecológico de primer nivel. Las distintas técnicas paleoecológicas son las más adecuadas para abordar todas estas preguntas. De este modo, los avatares de la vegetación a través del tiempo se han reconstruido mediante el análisis polínico y de macrofósiles, el impacto humano se ha trazado utilizando indicadores polínicos ligados a actividades antrópicas y esporas de hongos coprófilos, estudiándose los incendios a partir del registro de partículas microscópicas de carbón. La alta resolución temporal y taxonómica alcanzada en estos análisis, así como la amplia superficie abarcada con los yacimientos estudiados, hacen que la información obtenida sea altamente detallada y complete el conocimiento que se tiene sobre la cuenca del Duero. El Tardiglaciar se registra por primera vez en la Meseta Norte Ibérica en la secuencia de Ayoó de Vidriales, donde una vegetación esteparia prácticamente desarbolada domina durante los periodos fríos. Durante el interestadial Bølling/Allerød la expansión forestal (pinos, abedules) fue muy leve y tardía y fue interrumpida bruscamente por el Dryas Reciente. Al final del Dryas Reciente o al inicio del Holoceno se produjo una acusada y rápida expansión de los bosques. Esta dinámica sugiere que no hubo refugios glaciares importantes en esta zona de la Meseta durante el “Mystery Interval”, aparentemente el periodo más frío y seco. Los incendios fueron muy escasos, aumentando de forma muy brusca al inicio del Holoceno por el aumento de biomasa y las condiciones relativamente cálidas y secas. A partir de los registros de Ayoó y El Maíllo se consolida la importancia del gradiente oceanicidad-continentalidad en el Sistema Central y la Meseta Norte, que se manifiesta principalmente en la dominancia más prolongada de los pinares hacia el interior. Además, otra de las principales contribuciones de la presente tesis es proporcionar evidencia sobre la sucesión de distintos tipos de bosques en el noroeste de la Meseta, precisando el marco temporal en el que suceden. Así, se ha constatado que hubo un máximo desarrollo del bosque caducifolio durante el Holoceno medio en Ayoó de Vidriales y una baja incidencia del fuego que sugieren que el clima fue más húmedo que en el Holoceno inicial. El estudio de macrofósiles leñosos ha permitido detectar procesos que con el análisis polínico habrían pasado desapercibidos, como la persistencia hasta el Holoceno final de Pinus sylvestris en la sierra del Teleno y la sustitución de P. sylvestris por P. pinaster en la sierra de Francia durante el Holoceno inicial. También el estudio de los carbones procedentes de los arenales de Tierra de Pinares han proporcionado la prueba definitiva de la naturalidad de los pinares de P. pinaster. El impacto humano se detecta temprano en las secuencias del oeste de la cuenca del Duero, durante el Neolítico, aunque ha sido mucho más acusado desde la Edad del Hierro (ca 2700-2500 años cal BP). Para la detección del impacto humano temprano ha sido clave el análisis de esporas de hongos coprófilos, cuyo análisis fue incorporado en la secuencia de Ayoó de Vidriales. Una de sus principales consecuencias fue el establecimiento de comunidades de matorral (brezales, piornales) sobre amplias extensiones del occidente de la cuenca del Duero, vinculado al recrudecimiento de los regímenes de incendios. A pesar de que los incendios han sido ecológicamente importantes desde el inicio del Holoceno, los cambios introducidos por el hombre en sus regímenes sobrepasaron la resiliencia de los bosques originales, lo cual condujo a su sustitución sostenida por matorrales. ABSTRACT The Duero Basin constitutes a vast Iberian territory which is currently strongly disturbed due to human activities, so it is very difficult to find any remnant of the natural vegetation. Vegetation history for the eastern and western sectors of the Basin is relatively well-known but, in contrast, there is an almost complete lack of palaeoecological record in the western area. Consequently, there exists a profound ignorance about vegetation responses to the climatic oscillations occurred since the Last Glacial Maximum, the environmental impact of the different cultures, when a severe disturbance of the natural vegetation took place and fire history. The last question, the role and importance of fire, has a special interest in the Iberian Peninsula due to its geographic and climatic framework, the Mediterranean Basin, where fire is a major ecological factor. The diverse palaeoecological techmiques are the most suitable tools to address all these questions. Thus, vegetation shifts through time have been reconstructed using pollen and macrofossil analyses, human impact has been tracked by means of anthropogenic pollen indicators and dung fungal spores, while fire history has been studied from the quantification of microscopic charcoal particles. The high taxonomic and time resolution attained along with the extensive surface covered by the studied sites provide detailed information very useful to complete the knowledge on landscape dynamics in the Duero Basin. The Lateglacial is recorded for the first time in the Northern Iberian Plateau in the sequence from Ayoó de Vidriales, showing that almost treeless steppic vegetation dominated during the cold periods. Tree expansion (pines, birches) was late and slight during the Bølling/Allerød interstadial and was sharply interrupted by the Younger Dryas (YD) climatic reversal. By the end of the YD or the onset of the Holocene, a rapid forest expansion occurred. This forest dynamics suggests an absence of important glacial refugia for trees in this area of the Plateau during the Mystery Interval, apparently the coldest and driest period. Fires were fairly rare, increasing abruptly at the beginning of the Holocene due to the relatively warm and dry climate and the accumulation of biomass. The records from Ayoó and El Maíllo reinforce the role of the oceanicity-continentality gradient in the vegetation history of the Iberian Central Range and the Iberian Northern Plateau, reflected mainly in the longer dominance of pine forests towards inland areas. Further, another important contribution of this PhD Thesis is providing evidence on the succession of different forest types in the northestern fringe of the Plateau, specifying the chronological framework. A maximum of deciduous forest development and low fire activity have been detected in Ayoó de Vidriales during the mid-Holocene, suggesting that climate was wetter than in the early Holocene. The study of woody macrofossils has allowed detecting processes which would have remained unnoticed using pollen analysis alone, such as the persistence of Pinus sylvestris until the late Holocene in the Teleno Mountains and the early Holocene replacement of P. sylvestris with P. pinaster in the sierra de Francia range. The study of macroscopic charcoal fragments from palaeosols of the Tierra de Pinares has also provided the definitive proof of naturalness for the P. pinaster stands gorwing over this area at present. Early human impact, during the Neolithic, has been detected in the sequences from the western sector of the Duero Basin, although human disturbance has been more severe from the Iron Age onwards (ca 2700-2500 cal yr BP). The analysis of coprophilous fungi incorporated in the sequence of Ayoó de Vidriales has played a key role in recognizing that early human impact. One of the main consequences of human disturbance was the establishment of shrubland communities (heaths, brooms) over huge areas of the western Duero Basin, linked to severe and/or frequent fires. Despite fires has been ecologically important since the onset of the Holocene, human-induced changes in fire regimes have exceeded the resilience of original forests leading to a sustained replacement with shrublands.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

More children with different versions of speech disorders appear in Russia last decades. This situation reflects general tendency of national health deterioration. Our practical experience shows that close grownups can?t communicate to children with limited health capacity. As a result there arise social disabilities in child development. Speech communication is one of the forms of global communicative interaction process between close grownups and young child in the course of which there is a redistribution of knowledge and ignorance (Nikas Luman,2005). Within a framework of sociocultiral theory of mental growth we consider the appearance of speech communication under any cases of physical illness is possible only under conditions of correctly- organized communication between grownups and young children. (L.S. Vigotski ,2000). The special value in this aspect acquires the study of communication between grownups and young children. For five years we have been conducting the surveys on the problem of communicative contacts between parents and non-verbal children. Analysis of received data gave us the opportunity to systematize peculiar communicative interaction of adults and children who have some lapses in acquiring speech form communication. We have revealed four versions of situational- business communication between close grownups and young children with disabilities in acquiring speech. We have assumed that four versions of situational- business communication negatively affect speech form communication formation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para el proyecto y cálculo de estructuras metálicas, fundamentalmente pórticos y celosías de cubierta, la herramienta más comúnmente utilizada son los programas informáticos de nudos y barras. En estos programas se define la geometría y sección de las barras, cuyas características mecánicas son perfectamente conocidas, y sobre las cuales obtenemos unos resultados de cálculo concretos en cuanto a estados tensionales y de deformación. Sin embargo el otro componente del modelo, los nudos, presenta mucha mayor complejidad a la hora de establecer sus propiedades mecánicas, fundamentalmente su rigidez al giro, así como de obtener unos resultados de estados tensionales y de deformación en los mismos. Esta “ignorancia” sobre el comportamiento real de los nudos, se salva generalmente asimilando a los nudos del modelo la condición de rígidos o articulados. Si bien los programas de cálculo ofrecen la posibilidad de introducir nudos con una rigidez intermedia (nudos semirrígidos), la rigidez de cada nudo dependerá de la geometría real de la unión, lo cual, dada la gran variedad de geometrías de uniones que en cualquier proyecto se nos presentan, hace prácticamente inviable introducir los coeficientes correspondientes a cada nudo en los modelos de nudos y barras. Tanto el Eurocódigo como el CTE, establecen que cada unión tendrá asociada una curva momento-rotación característica, que deberá ser determinada por los proyectistas mediante herramientas de cálculo o procedimientos experimentales. No obstante, este es un planteamiento difícil de llevar a cabo para cada proyecto. La consecuencia de esto es, que en la práctica, se realizan extensas comprobaciones y justificaciones de cálculo para las barras de las estructuras, dejando en manos de la práctica común la solución y puesta en obra de las uniones, quedando sin justificar ni comprobar la seguridad y el comportamiento real de estas. Otro aspecto que conlleva la falta de caracterización de las uniones, es que desconocemos como afecta el comportamiento real de éstas en los estados tensionales y de deformación de las barras que acometen a ellas, dudas que con frecuencia nos asaltan, no sólo en la fase de proyecto, sino también a la hora de resolver los problemas de ejecución que inevitablemente se nos presentan en el desarrollo de las obras. El cálculo mediante el método de los elementos finitos, es una herramienta que nos permite introducir la geometría real de perfiles y uniones, y nos permite por tanto abordar el comportamiento real de las uniones, y que está condicionado por su geometría. Por ejemplo, un caso típico es el de la unión de una viga a una placa o a un soporte soldando sólo el alma. Es habitual asimilar esta unión a una articulación. Sin embargo, el modelo por elementos finitos nos ofrece su comportamiento real, que es intermedio entre articulado y empotrado, ya que se transmite un momento y el giro es menor que el del apoyo simple. No obstante, la aplicación del modelo de elementos finitos, introduciendo la geometría de todos los elementos estructurales de un entramado metálico, tampoco resulta en general viable desde un punto de vista práctico, dado que requiere invertir mucho tiempo en comparación con el aumento de precisión que obtenemos respecto a los programas de nudos y barras, mucho más rápidos en la fase de modelización de la estructura. En esta tesis se ha abordado, mediante la modelización por elementos finitos, la resolución de una serie de casos tipo representativos de las uniones más comúnmente ejecutadas en obras de edificación, como son las uniones viga-pilar, estableciendo el comportamiento de estas uniones en función de las variables que comúnmente se presentan, y que son: •Ejecución de uniones viga-pilar soldando solo por el alma (unión por el alma), o bien soldando la viga al pilar por todo su perímetro (unión total). •Disposición o no de rigidizadores en los pilares •Uso de pilares de sección 2UPN en cajón o de tipo HEB, que son los tipos de soporte utilizados en casi el 100% de los casos en edificación. Para establecer la influencia de estas variables en el comportamiento de las uniones, y su repercusión en las vigas, se ha realizado un análisis comparativo entre las variables de resultado de los casos estudiados:•Estados tensionales en vigas y uniones. •Momentos en extremo de vigas •Giros totales y relativos en nudos. •Flechas. Otro de los aspectos que nos permite analizar la casuística planteada, es la valoración, desde un punto de vista de costos de ejecución, de la realización de uniones por todo el perímetro frente a las uniones por el alma, o de la disposición o no de rigidizadores en las uniones por todo el perímetro. Los resultados a este respecto, son estrictamente desde un punto de vista económico, sin perjuicio de que la seguridad o las preferencias de los proyectistas aconsejen una solución determinada. Finalmente, un tercer aspecto que nos ha permitido abordar el estudio planteado, es la comparación de resultados que se obtienen por el método de los elementos finitos, más próximos a la realidad, ya que se tiene en cuenta los giros relativos en las uniones, frente a los resultados obtenidos con programas de nudos y barras. De esta forma, podemos seguir usando el modelo de nudos y barras, más versátil y rápido, pero conociendo cuáles son sus limitaciones, y en qué aspectos y en qué medida, debemos ponderar sus resultados. En el último apartado de la tesis se apuntan una serie de temas sobre los que sería interesante profundizar en posteriores estudios, mediante modelos de elementos finitos, con el objeto de conocer mejor el comportamiento de las uniones estructurales metálicas, en aspectos que no se pueden abordar con los programas de nudos y barras. For the project and calculation of steel structures, mainly building frames and cover lattices, the tool more commonly used are the node and bars model computer programs. In these programs we define the geometry and section of the bars, whose mechanical characteristics are perfectly known, and from which we obtain the all calculation results of stresses and displacements. Nevertheless, the other component of the model, the nodes, are much more difficulty for establishing their mechanical properties, mainly the rotation fixity coefficients, as well as the stresses and displacements. This "ignorance" about the real performance of the nodes, is commonly saved by assimilating to them the condition of fixed or articulated. Though the calculation programs offer the possibility to introducing nodes with an intermediate fixity (half-fixed nodes), the fixity of every node will depend on the real connection’s geometry, which, given the great variety of connections geometries that in a project exist, makes practically unviable to introduce the coefficients corresponding to every node in the models of nodes and bars. Both Eurocode and the CTE, establish that every connection will have a typical moment-rotation associated curve, which will have to be determined for the designers by calculation tools or experimental procedures. Nevertheless, this one is an exposition difficult to carry out for each project. The consequence of this, is that in the practice, in projects are extensive checking and calculation reports about the bars of the structures, trusting in hands of the common practice the solution and execution of the connections, resulting without justification and verification their safety and their real behaviour. Another aspect that carries the lack of the connections characterization, is that we don´t know how affects the connections real behaviour in the stresses and displacements of the bars that attack them, doubts that often assault us, not only in the project phase, but also at the moment of solving the execution problems that inevitably happen in the development of the construction works. The calculation by finite element model is a tool that allows us to introduce the real profiles and connections geometry, and allows us to know about the real behaviour of the connections, which is determined by their geometry. Typical example is a beam-plate or beam-support connection welding only by the web. It is usual to assimilate this connection to an articulation or simple support. Nevertheless, the finite element model determines its real performance, which is between articulated and fixed, since a moment is transmitted and the relative rotation is less than the articulation’s rotation. Nevertheless, the application of the finite element model, introducing the geometry of all the structural elements of a metallic structure, does not also turn out to be viable from a practical point of view, provided that it needs to invest a lot of time in comparison with the precision increase that we obtain opposite the node and bars programs, which are much more faster in the structure modelling phase. In this thesis it has been approached, by finite element modelling, the resolution of a representative type cases of the connections commonly used in works of building, since are the beam-support connections, establishing the performance of these connections depending on the variables that commonly are present, which are: •Execution of beam-support connections welding only the web, or welding the beam to the support for the whole perimeter. •Disposition of stiffeners in the supports •Use 2UPN in box section or HEB section, which are the support types used in almost 100% building cases. To establish the influence of these variables in the connections performance, and the repercussion in the beams, a comparative analyse has been made with the resulting variables of the studied cases: •Stresses states in beams and connections. •Bending moments in beam ends. •Total and relative rotations in nodes. •Deflections in beams. Another aspect that the study allows us to analyze, is the valuation, from a costs point of view, of the execution of connections for the whole perimeter opposite to the web connections, or the execution of stiffeners. The results of this analyse, are strictly from an economic point of view, without prejudice that the safety or the preferences of the designers advise a certain solution. Finally, the third aspect that the study has allowed us to approach, is the comparison of the results that are obtained by the finite element model, nearer to the real behaviour, since the relative rotations in the connections are known, opposite to the results obtained with nodes and bars programs. So that, we can use the nodes and bars models, more versatile and quick, but knowing which are its limitations, and in which aspects and measures, we must weight the results. In the last part of the tesis, are relationated some of the topics on which it would be interesting to approach in later studies, with finite elements models, in order to know better the behaviour of the structural steel connections, in aspects that cannot be approached by the nodes and bars programs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The biotic crisis overtaking our planet is likely to precipitate a major extinction of species. That much is well known. Not so well known but probably more significant in the long term is that the crisis will surely disrupt and deplete certain basic processes of evolution, with consequences likely to persist for millions of years. Distinctive features of future evolution could include a homogenization of biotas, a proliferation of opportunistic species, a pest-and-weed ecology, an outburst of speciation among taxa that prosper in human-dominated ecosystems, a decline of biodisparity, an end to the speciation of large vertebrates, the depletion of “evolutionary powerhouses” in the tropics, and unpredictable emergent novelties. Despite this likelihood, we have only a rudimentary understanding of how we are altering the evolutionary future. As a result of our ignorance, conservation policies fail to reflect long-term evolutionary aspects of biodiversity loss.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Our global impact is finally receiving the scientific attention it deserves. The outcome will largely determine the future course of evolution. Human-modified ecosystems are shaped by our activities and their side effects. They share a common set of traits including simplified food webs, landscape homogenization, and high nutrient and energy inputs. Ecosystem simplification is the ecological hallmark of humanity and the reason for our evolutionary success. However, the side effects of our profligacy and poor resource practices are now so pervasive as to threaten our future no less than that of biological diversity itself. This article looks at human impact on ecosystems and the consequences for evolution. It concludes that future evolution will be shaped by our awareness of the global threats, our willingness to take action, and our ability to do so. Our ability is presently hampered by several factors, including the poor state of ecosystem and planetary knowledge, ignorance of human impact, lack of guidelines for sustainability, and a paucity of good policies, practices, and incentives for adopting those guidelines in daily life. Conservation philosophy, science, and practice must be framed against the reality of human-dominated ecosystems, rather than the separation of humanity and nature underlying the modern conservation movement. The steps scientists can take to imbed science in conservation and conservation in the societal process affecting the future of ecosystems and human well-being are discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dichotomy between two groups of workers on neuroelectrical activity is retarding progress. To study the interrelations between neuronal unit spike activity and compound field potentials of cell populations is both unfashionable and technically challenging. Neither of the mutual disparagements is justified: that spikes are to higher functions as the alphabet is to Shakespeare and that slow field potentials are irrelevant epiphenomena. Spikes are not the basis of the neural code but of multiple codes that coexist with nonspike codes. Field potentials are mainly information-rich signs of underlying processes, but sometimes they are also signals for neighboring cells, that is, they exert influence. This paper concerns opportunities for new research with many channels of wide-band (spike and slow wave) recording. A wealth of structure in time and three-dimensional space is different at each scale—micro-, meso-, and macroactivity. The depth of our ignorance is emphasized to underline the opportunities for uncovering new principles. We cannot currently estimate the relative importance of spikes and synaptic communication vs. extrasynaptic graded signals. In spite of a preponderance of literature on the former, we must consider the latter as probably important. We are in a primitive stage of looking at the time series of wide-band voltages in the compound, local field, potentials and of choosing descriptors that discriminate appropriately among brain loci, states (functions), stages (ontogeny, senescence), and taxa (evolution). This is not surprising, since the brains in higher species are surely the most complex systems known. They must be the greatest reservoir of new discoveries in nature. The complexity should not deter us, but a dose of humility can stimulate the flow of imaginative juices.