842 resultados para Distribuições de probabilidades


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se examinan cinco casos de emigrantes argentinos que durante el lustro 2005/2009 llevaron a cabo experiencias migratorias en la provincia de Málaga [España]. El objetivo principal radica en analizar las formas y funciones de las redes sociales de apoyo social tanto en la decisión de emigrar como en el proceso de adaptación, poniendo especial atención a los factores asociados al capital social que favorecen o limitan el ingreso y desplazamiento en el mercado laboral español. El método escogido para la recolección de datos es la entrevista semi-estructurada, el cual se asoció al Sociograma como herramienta gráfica de exposición de estructuras sociales. A fines expositivos se establecen dos segmentos, el primero de los cuales presenta el contexto en el cual se enmarca la investigación [particularidades de las corrientes migratorias actuales y características económicas de provincia de destino] y las categorías teóricas movilizadas en la investigación [propiedades de las Redes Sociales de Apoyo y del Capital Social]. El segundo apartado presenta las biografías migratorias, su análisis y concluye con reflexiones finales. Se ha podido constatar el papel central de las redes sociales de apoyo a lo largo de todo el proceso, condicionando tanto la toma de decisiones previas a la emigración como la adaptación subjetiva y la inserción sociolaboral, e incluso las probabilidades de retorno o asentamiento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se examinan cinco casos de emigrantes argentinos que durante el lustro 2005/2009 llevaron a cabo experiencias migratorias en la provincia de Málaga [España]. El objetivo principal radica en analizar las formas y funciones de las redes sociales de apoyo social tanto en la decisión de emigrar como en el proceso de adaptación, poniendo especial atención a los factores asociados al capital social que favorecen o limitan el ingreso y desplazamiento en el mercado laboral español. El método escogido para la recolección de datos es la entrevista semi-estructurada, el cual se asoció al Sociograma como herramienta gráfica de exposición de estructuras sociales. A fines expositivos se establecen dos segmentos, el primero de los cuales presenta el contexto en el cual se enmarca la investigación [particularidades de las corrientes migratorias actuales y características económicas de provincia de destino] y las categorías teóricas movilizadas en la investigación [propiedades de las Redes Sociales de Apoyo y del Capital Social]. El segundo apartado presenta las biografías migratorias, su análisis y concluye con reflexiones finales. Se ha podido constatar el papel central de las redes sociales de apoyo a lo largo de todo el proceso, condicionando tanto la toma de decisiones previas a la emigración como la adaptación subjetiva y la inserción sociolaboral, e incluso las probabilidades de retorno o asentamiento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tras el terremoto ocurrido en Haití el 12 de enero de 2010, con un epicentro próximo a la capital, Puerto Príncipe (25 km), de magnitud Mw 7,0 y profundidad de 13 km, el país ha quedado en una situación catastrófica y de extrema pobreza, con necesidades básicas de salud, nutrición, educación y habitabilidad. Los efectos del terremoto han sido devastadores en la población, con más de 300.000 personas que han perdido la vida, otras tantas que han resultado heridas y 1,3 millones de personas que han quedado sin hogar y viviendo en campamentos. En cuanto a los efectos materiales, el sismo ha dejado cerca de 100.000 residencias totalmente destruidas y casi 200.000 dañadas fuertemente (fuente: USGS). Este terremoto ha sido el más fuerte registrado en la zona desde el acontecido en 1770. Además, el sismo fue perceptible en países cercanos como Cuba, Jamaica y República Dominicana, donde provocó temor y evacuaciones preventivas. La reconstrucción del país es un tema prioritario en el marco de la cooperación internacional y el presente proyecto, SISMO-HAITÍ, se ha desarrollado con el fin de aportar conocimiento e información para facilitar la toma de medidas preventivas ante el riesgo sísmico existente, tratando de evitar que un terremoto futuro en el país produzca una catástrofe como el recientemente vivido. En el caso de Haití, no existía ninguna institución responsable del monitoreo sísmico, pero se ha establecido contacto directo con el Observatorio Nacional de Medio Ambiente y Vulnerabilidad de Haití (ONEV) a través de su director Dwinel Belizaire Ing. M. Sc. Director, que es precisamente quien ha solicitado la ayuda que ha motivado la presente propuesta. El fin último de este proyecto es el estudio de acciones de mitigación del elevado riesgo existente, contribuyendo al desarrollo sostenible de la región. Para ello, se ha evaluado la amenaza sísmica en Haití, en base a la cual se pretenden establecer criterios de diseño sismorresistente para la reconstrucción del país, que se podrán recoger en la primera normativa antisísmica, así como el riesgo sísmico en Puerto Príncipe, cuyos resultados servirán de base para elaborar los planes de emergencia ante este riesgo natural. Los objetivos específicos alcanzados son: • Evaluación de amenaza sísmica en Haití, resultando mapas de distintos parámetros de movimiento para diferentes probabilidades de excedencia (lo que supone conocer la probabilidad asociada a movimientos por futuros terremotos). • Evaluación del efecto local en Puerto Príncipe y elaboración de un mapa de microzonación de la ciudad. • Estudio de vulnerabilidad sísmica a escala local en Puerto Príncipe • Estimación del riesgo sísmico en Puerto Príncipe • Medidas de mitigación del riesgo y de diseño sismorresistente En este informe se resumen las actividades desarrolladas y los resultados obtenidos a lo largo del año 2011 durante la ejecución del presente proyecto. El grupo de trabajo es un equipo multidisciplinar, compuesto por investigadores de diferentes universidades (Universidad Politécnica de Madrid- UPM-, U. Complutense de Madrid -UCM-, U. Alicante -UA-, U. Almería -UAL-, U. Autónoma de Santo Domingo -UASD- y U. de Mayagüez de Puerto Rico -UPRM-) que cubren todas las ramas involucradas en la ejecución del proyecto: geología, sismología, ingeniería sísmica, arquitectura y gestión de geoinformación. Todos los miembros de este equipo han trabajado conjuntamente durante todo el año, manteniendo reuniones, jornadas de trabajo y videoconferencias, además de realizar una visita a Puerto Príncipe en julio de 2011 para llevar a cabo la primera toma de datos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguridad en el ámbito nuclear juega un papel muy importante debido a las graves consecuencias que pueden tener los posibles accidentes, cuyos efectos se pueden extender por extensos espacios y prolongarse mucho en el tiempo. Es por eso que desde el inicio del desarrollo de la tecnología nuclear siempre se ha vigilado por mantener las instalaciones nucleares en un nivel de riesgo aceptable. En esta tesis se pretende poner de manifiesto algunas carencias del análisis de riesgo clásico que se resumen en una forma de distinguir y separar transitorios de daño y transitorios seguros pertenecientes a una misma secuencia, definiendo el llamado dominio de daño y evaluando la probabilidad de que algún transitorio perteneciente a la secuencia sea de daño, es decir, que esté contenido dentro de la región del dominio de daño, aportando la llamada probabilidad de superación para obtener la frecuencia de superación de estados finales no deseados. En la tesis se realiza en primer lugar un breve resumen de algunos reactores de alta temperatura refrigerados con gas, de los que se ha elegido al reactor de prueba de alta temperatura (HTTR) como ejemplo para mostrar la metodología. Aparte de ver el diseño de los diferentes reactores y su aportación a la investigación y desarrollo de nuevos modelos, se estudiaron algunos incidentes y se tomaron datos de algunos de ellos para ajustar las probabilidades de los sucesos a emplear en los árboles de fallos. Seguidamente se realiza un análisis simple de una secuencia, según la metodología clásica de análisis probabilista del riesgo, usando solo arboles de fallos y de sucesos, evaluando la frecuencia de daño de dicha secuencia. En el núcleo de la Tesis se describe la metodología y la aportación que se propone para obtener la cuantificación de tan solo los transitorios de daño y su aportación al estado final. Una aportación significativa es el modelado del HTTR, plasmado en el programa de simulación HTTR5+, necesario para poder aplicar la metodología, con el que se ha llevado a cabo la simulación de un transitorio de prueba, a fin de realizar la comparación con el obtenido por el fabricante (JAERI), buscando el dominio de daño y su cuantificación. Para este fin, se desarrolló un módulo que gestiona las diferentes simulaciones para delinear el dominio de daño, el cual se integró al simulador HTTR5+ para crear el programa DD-HTTR5+. Los resultados de la frecuencia de superación de la variable de daño se han comparado con los obtenidos por el método tradicional, para finalmente extraer las conclusiones de la Tesis. Uno de los resultados más significativos es que para la secuencia analizada un 40% de los transitorios que pertenecen a la secuencia son de daño y el otro 60% son transitorios seguros. Al emplear el método clásico se estaba realizando una sobreestimación de la probabilidad y frecuencia de daño. La Tesis también contiene en anexos una descripción muy detallada del HTTR, con respecto a su diseño, modos de operación, sistemas y componentes, etc. También se detallan las propiedades termofísicas del HTTR, así como las tasas de fallos y los árboles de fallos utilizados. Toda esta información fue de gran ayuda para realizar el modelo y programa de simulación HTTR5+.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente estudio tiene por objetivo la estimación, para un puente real, de la probabilidad anual de que dicha estructura sobrepase unos determinados estados límites utilizando el método SAC/FEMA. El estudio incorpora tanto los aspectos sismológicos, que llevan a establecer el movimiento probable que afectará a la estructura, como el modelado detallado de la misma y el estudio de su respuesta a dicho movimiento. El estudio de peligrosidad necesario para el desarrollo de la metodología anterior lleva a obtener los espectros de peligrosidad uniforme asociados a probabilidades de excedencia 2%, 10% y 50% en 50 años, y seleccionar en bases de datos registros coherentes con los correspondientes movimientos. Éstos niveles de solicitación se comparan con los equivalentes según el borrador de la Norma de Construcción Sismorresistente: Parte de Puentes (NCSE Puentes 2006), y se ponen de manifiesto las diferencias encontradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante las últimas décadas, científicos e ingenieros han desarrollado un gran esfuerzo en la comprensión por los temas relacionados con el impacto entre cuerpos sólidos. La complejidad del desarrollo teórico y el desconocimiento acerca del comportamiento real de los materiales en problemas de carga rápida ha limitado tradicionalmente los problemas de impacto a geometrías muy concretas de los cuerpos incidentes, sin embargo, la evolución de la velocidad en los ordenadores y las mejoras en los métodos y elementos de instrumentación han aumentado el alcance y la fiabilidad de los datos experimentales y consecuentemente han sido un nuevo impulso en el estudio en este campo. El enfoque actual de las normativas basado en el análisis de riesgos permite la posibilidad de abordar la seguridad estructural a través de modelos explícitos, en los que las variables básicas del problema se definen de forma estadística y la seguridad se fija en función de probabilidades de fallo frente a los estados límite. Los métodos de fiabilidad estructural deben ser capaces de analizar toda la información estadística; es habitual el uso del método de Montecarlo, superficie de respuesta, estimaciones puntuales, nivel 11, etc. y en todos ellos es fundamental el conocimiento de un procedimiento determinista que permita evaluar el grado de cumplimiento de los estados límite. En ésta presentación se entra directamente en los modelos deterministas de cálculo, obviando el estudio estadístico más propio de un capítulo destinado a la fiabilidad estructural. Para ello, se han recogido unas ideas acerca de cómo se aborda el problema del impacto de una forma tradicional, se comienza con los choques elásticos e inelásticos de cuerpos rígidos. Los cuerpos rígidos dan paso a cuerpos elásticos donde la colisión genera una onda que recorre el cuerpo a una velocidad finita que se refleja en los contornos generando una vibración y en consecuencia una pérdida de energía en el choque. Posteriormente se abordará el impacto con materiales plásticos donde parte de la energía se transforma en la deformación permanente. Las explosiones pueden ser tratadas de forma análoga al impacto, ya que poseen la misma característica de cargas rápidas y son consideradas solicitaciones accidentales. La diferencia fundamental se centra en que los impactos requieren la existencia de dos cuerpos mientras que las explosiones sólo requieren un receptor y es el medio transmisor, generalmente el aire, quien transmite la solicitación mediante una onda de presión. En este artículo se comentan diferentes aspectos de la naturaleza de la solicitación y de su efecto sobre las estructuras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, las técnicas de crioconservación poseen una importancia creciente para el almacenamiento a largo plazo de germoplasma vegetal. En las dos últimas décadas, estos métodos experimentaron un gran desarrollo y se han elaborado protocolos adecuados a diferentes sistemas vegetales, utilizando diversas estrategias como la vitrificación, la encapsulación-desecación con cuentas de alginato y el método de “droplet”-vitrificación. La presente tesis doctoral tiene como objetivo aumentar el conocimiento sobre los procesos implicados en los distintos pasos de un protocolo de crioconservación, en relación con el estado del agua presente en los tejidos y sus cambios, abordado mediante diversas técnicas biofísicas, principalmente calorimetría diferencial de barrido (DSC) y microscopía electrónica de barrido a baja temperatura (crio-SEM). En un primer estudio sobre estos métodos de crioconservación, se describen las fases de enfriamiento hasta la temperatura del nitrógeno líquido y de calentamiento hasta temperatura ambiente, al final del periodo de almacenamiento, que son críticas para la supervivencia del material crioconservado. Tanto enfriamiento como calentamiento deben ser realizados lo más rápidamente posible pues, aunque los bajos contenidos en agua logrados en etapas previas de los protocolos reducen significativamente las probabilidades de formación de hielo, éstas no son del todo nulas. En ese contexto, se analiza también la influencia de las velocidades de enfriamiento y calentamiento de las soluciones de crioconservación de plantas en sus parámetros termofísicos referente a la vitrificación, en relación su composición y concentración de compuestos. Estas soluciones son empleadas en la mayor parte de los protocolos actualmente utilizados para la crioconservación de material vegetal. Además, se estudia la influencia de otros factores que pueden determinar la estabilidad del material vitrificado, tales como en envejecimiento del vidrio. Se ha llevado a cabo una investigación experimental en el empleo del crio-SEM como una herramienta para visualizar el estado vítreo de las células y tejidos sometidos a los procesos de crioconservación. Se ha comparado con la más conocida técnica de calorimetría diferencial de barrido, obteniéndose resultados muy concordantes y complementarios. Se exploró también por estas técnicas el efecto sobre tejidos vegetales de la adaptación a bajas temperaturas y de la deshidratación inducida por los diferentes tratamientos utilizados en los protocolos. Este estudio permite observar la evolución biofísica de los sistemas en el proceso de crioconservación. Por último, se estudió la aplicación de películas de quitosano en las cuentas de alginato utilizadas en el protocolo de encapsulación. No se observaron cambios significativos en su comportamiento frente a la deshidratación, en sus parámetros calorimétricos y en la superficie de las cuentas. Su aplicación puede conferir propiedades adicionales prometedoras. ABSTRACT Currently, cryopreservation techniques have a growing importance for long term plant germplasm storage. These methods have undergone great progress during the last two decades, and adequate protocols for different plant systems have been developed, making use of diverse strategies, such as vitrification, encapsulation-dehydration with alginate beads and the dropletvitrification method. This PhD thesis has the goal of increasing the knowledge on the processes underlying the different steps of cryopreservation protocols, in relation with the state of water on tissues and its changes, approached through diverse biophysical techniques, especially differential scanning calorimetry (DSC) and low-temperature scanning electron microscopy (cryo-SEM). The processes of cooling to liquid nitrogen temperature and warming to room temperature, at the end of the storage period, critical for the survival of the cryopreserved material, are described in a first study on these cryopreservation methods. Both cooling and warming must be carried out as quickly as possible because, although the low water content achieved during previous protocol steps significantly reduces ice formation probability, it does not completely disappear. Within this context, the influence of plant vitrification solutions cooling and warming rate on their vitrification related thermophysical parameters is also analyzed, in relation to its composition and component concentration. These solutions are used in most of the currently employed plant material cryopreservation protocols. Additionally, the influence of other factors determining the stability of vitrified material is studied, such as glass aging. An experimental research work has been carried out on the use of cryo-SEM as a tool for visualizing the glassy state in cells and tissues, submitted to cryopreservation processes. It has been compared with the better known differential scanning calorimetry technique, and results in good agreement and complementary have been obtained. The effect on plant tissues of adaptation to low temperature and of the dehydration induced by the different treatments used in the protocols was explored also by these techniques. This study allows observation of the system biophysical evolution in the cryopreservation process. Lastly, the potential use of an additional chitosan film over the alginate beads used in encapsulation protocols was examined. No significant changes could be observed in its dehydration and calorimetric behavior, as well as in its surface aspect; its application for conferring additional properties to gel beads is promising.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En países de sismicidad moderada es habitual el uso de puentes cuyo tablero está unido mediante apoyos elastoméricos y/o deslizantes, tanto a las pilas como a los estribos. La principal vulnerabilidad sísmica de estos puentes está asociada a los choques. Dicha vulnerabilidad puede valorarse estimando la probabilidad de que se produzca un determinado daño en un periodo de tiempo. En este artículo se plantean las líneas actuales para estudiar este problema, y se aplican al estudio de la vulnerabilidad de un paso superior situado en la provincia de Granada, que puede considerarse como sísmicamente aislado. El marco del estudio es la metodología del Pacific Earthquake Engineering Research Center, cuya aplicación se ha adaptado al caso estudiado. En el artículo se describen cada una de las etapas de que consta, aunque se presta especial atención a la identificación y caracterización de los daños susceptibles de producirse. El modelo de la estructura, que debe permitir una adecuada caracterización de los choques, también será presentado en detalle. Dado que el puente es representativo de una gran cantidad de estructuras del inventario construido en España, los resultados son doblemente importantes. Por una parte, sirven de guía para la aplicación de esta metodología a estructuras similares. Y por otra, proporcionan valores de probabilidades que pueden servir de referencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral pretende profundizar en el conocimiento de la ecología de Ulmus laevis Pallas, especie autóctona en peligro de extinción en la Península Ibérica, con el fin de proponer medidas adecuadas para su conservación. Se ha estudiado la distribución natural de la especie atendiendo a aspectos edáficos. Los resultados muestran que U. laevis presenta menor capacidad de acidificación de la rizosfera, menor actividad de la reductasa férrica y menor homeostasis que U. minor Mill. cuando crecen en sustratos con una disponibilidad de hierro limitada. Estas diferencias ayudan a comprender la distribución de ambas especies en la Península Ibérica: U. laevis se ve restringido a suelos ácidos o moderadamente ácidos, mientras que U. minor es capaz de habitar tanto suelos ácidos como básicos. Se han analizado las propiedades hidráulicas y anatómicas de U. laevis, constatando que sus características son favorables en ambientes con gran disponibilidad hídrica y que se trata del olmo ibérico más vulnerable a la cavitación por estrés hídrico, por lo que la aridificación del clima y la pérdida de los freáticos supone un riesgo para sus poblaciones. Para evaluar la capacidad de recuperación de la especie se han estudiado la diversidad y estructura genética espacial de las dos mayores poblaciones españolas. Los resultados evidencian que estas poblaciones mantienen niveles de diversidad equiparables o ligeramente superiores a los europeos, pese a haber sufrido un cuello de botella prolongado durante las glaciaciones y a las reducciones poblacionales recientes. En la actualidad la endogamia no representa un riesgo para estas poblaciones. También se ha analizado la producción, dispersión y predación de semillas en Valdelatas (Madrid). Los resultados han mostrado que el viento dispersa las sámaras a corta distancia (<30 m) y que los años no veceros las probabilidades de establecimiento de regenerado son bajas. Además, la producción de sámaras vanas puede tratarse de un carácter adaptativo que aumenta la eficiencia biológica de la especie, ya que favorece la supervivencia de las semillas embrionadas disminuyendo sus tasas de predación pre- y post-dispersión. La modificación del hábitat de esta especie como consecuencia de las actividades humanas afecta de manera negativa al establecimiento del regenerado. La conservación de esta especie a largo plazo requiere la recuperación de los niveles freáticos y de regímenes hidrológicos que permitan avenidas, ya que estas crean las condiciones adecuadas para el establecimiento de regenerado al eliminar la vegetación preexistente y depositar barro. ABSTRACT Ulmus laevis Pallas is an endangered species in the Iberian Peninsula. Therefore, in order to be able to propose adequate management guidelines for its conservation, this PhD Thesis intends to advance the knowledge on the species ecology in the region. Firstly, the species natural distribution was studied in relation to soil nature. Results show that U. minor Mill. had a higher root ferric reductase activity and proton extrusion capability than U. laevis, and maintained a better nutrient homeostasis when grown under iron limiting conditions. These differences in root Fe acquisition efficiencies proved helpful to understand the distribution of these species in the Iberian Peninsula, where U. laevis is restricted to acid or moderately acid soils, whereas U. minor can grow both in acid and basic soils. Secondly, we studied Ulmus laevis’ xylem anatomy and hydraulic traits. These proved favourable for growing under high water availability, but highly susceptible to drought-stress cavitation. Therefore, this species is vulnerable to the Iberian Peninsula’s aridification. Spatial genetic structure and diversity were evaluated in two of the biggest U. laevis populations in Spain in order to evaluate their recovery capabilities. These populations maintain similar or slightly higher diversity levels than European populations, despite having undergone an ancestral genetic bottleneck and having suffered recent population size reductions. No inbreeding problems have been detected in these populations. Seed production, dispersal and predation were assessed in Valdelatas’ elm grove (Madrid). Despite U. laevis samaras being winged nuts, wind dispersed them short distances from the mother tree (<30 m). The seed shadow models show that non-mast years provide very few chances for the stand to regenerate due to their low full seed flux. Empty samaras deceive pre- and post-dispersal predators increasing full seed survival probabilities. Therefore, empty fruit production might be an adaptive trait that increases plant fitness. Finally, human-induced changes in water-table levels and river regulation may affect U. laevis seed dispersal and regeneration establishment negatively. The long-term conservation and expansion of this species in the Iberian Peninsula requires the recovery of water-tables and of natural hydrological regimes, as flooding eliminates vegetation, creating open microhabitats and deposits mud, creating the ideal conditions for seedling establishment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El programa "ANISET" (Análisis de Niveles de Seguridad en Túneles) desarrollado por SINEX, S.A. constituye una herramienta de cálculo orientada a la realización de estudios de Fiabilidad de las estructuras de sostenimiento de túneles y galerías subterráneas. El desarrollo del Nuevo Método Austriaco de construcción de túneles (NATM) ha supuesto un gran avance de tecnificación en un tipo de obras tradicionalmente poco exigentes en lo que al cálculo de refiere. La aplicación de esta nueva metodología ha propiciado un gran desarrollo en la aplicación de métodos numéricos y de nuevos modelos de comportamiento para el estudio del problema de interacción terreno-sostenimiento. Sin embargo, la investigación en torno a procedimientos adecuados para la introducción de la seguridad en los cálculos no ha sido tan intensa, lo que ha creado un estado de cierta confusión entorno a este tema. Con este trabajo, se ha pretendido impulsar un avance en este terreno. Para ello se ha considerado que el mejor método era la aplicación de las técnicas de Fiabilidad Estructural en Nivel U, como de hecho se está realizando en muchos otros terrenos en el ámbito del cálculo estructural. Para realizar el programa, se ha tomado como base el modelo mecánico bidimensional desarrollado por P. Fritz (1984) que básicamente coincide con el aplicado en el programa SOSTENIM. En este modelo el terreno se considera un medio de comportamiento elastoplástico, de acuerdo al criterio de Mohr-Coulomb, sobre el que se realiza una excavación de sección circular. El sostenimiento se ha modelado teniendo en cuenta las aportaciones del hormigón proyectado, del acero de las armaduras y de las cerchas metálicas habitualmente utilizadas. Los Estados Límite considerados en el programa, para los cuales se han desarrollado las correspondientes funciones de fallo, son los siguientes: - Agotamiento de la capacidad resistente del terreno. Caracterizado por un radio de plastificación excesivo del terreno. - Agotamiento de la estructura, producido por la aparición de deformaciones superiores al máximo admisible por los materiales del sostenimiento. - Convergencia excesiva: el desplazamiento radial en el sostenimiento supera un máximo fijado por el proyectista en base a criterios prácticos de utilización, etc. El tratamiento de las incertidumbres para la estimación de los correspondientes índices de fiabilidad y probabilidades de fallo respecto a los 3 estados límite mencionados, responde básicamente al esquema propuesto por E. Rosenblueth (1981). Se espera que el enfoque eminentemente práctico dado al trabajo, y la sencillez de manejo del programa, permitan una fácil y útil aplicación del mismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La visión del riesgo es muy importante a la hora de diseñar y construir estructuras. Sobre todo en presencia de catástrofes naturales. Esta tesis presenta las consideraciones y recomendaciones a tener en cuenta para proyectar estructuras en zonas con riesgo de tsunami, tras haber estudiado todos los riesgos y soluciones posibles mediante tres técnicas diferentes. Esto se ha obtenido aplicando el método LOGRO (Líder de Organización de Gestión de Riesgos y Oportunidades). Se puede pensar que la única solución posible ante esta catástrofe es no construir en zonas vulnerables, pero no es posible. Hay que tener en cuenta que no todos los tsunamis son de la misma magnitud e intensidad y este trabajo contempla todos ellos con distintos niveles de actuación para cada situación. Por otro lado, existen lugares costeros muy urbanizados en los que sería imposible fomentar la emigración, y zonas turísticas donde lo que prima es la cercanía a la costa. Las resultados obtenidos de esta investigación tienen como objetivo reducir el riesgo vinculado al tsunami, minimizando tanto probabilidades de ocurrencia como consecuencias. The hazard view is very important when designing and building structures, mainly, under natural disasters. This thesis presents the considerations and recommendations to take into account to project structures in tsunami prone areas after having studied all the hazards and possible solutions through three different techniques. This has been obtained using LOGRO´s method. It is easy to think that the only possible solution to this disaster is not to build in vulnerable areas, but it is not like this. It has to be taken into account that not all tsunamis are of the same magnitude neither of the same intensity and this work considers all of them with different performance levels for each situation. On the other hand, there are very developed coastal places where it would be impossible to encourage emigration, and touristic areas where the closeness to the coast is what comes first. The aim of the results obtained in this research is to reduce the tsunami hazard minimising not only probabilities but also consequences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La innovación en Sistemas Intesivos en Software está alcanzando relevancia por múltiples razones: el software está presente en sectores como automóvil, teléfonos móviles o salud. Las empresas necesitan conocer aquellos factores que afectan a la innovación para incrementar las probabilidades de éxito en el desarrollo de sus productos y, la evaluación de productos sofware es un mecanismo potente para capturar este conocimiento. En consecuencia, las empresas necesitan evaluar sus productos desde la perpectiva de innovación para reducir la distancia entre los productos desarrollados y el mercado. Esto es incluso más relevante en el caso de los productos intensivos en software, donde el tiempo real, la oportunidad, complejidad, interoperabilidad, capacidad de respuesta y compartción de recursos son características críticas de los nuevos sistemas. La evaluación de la innovación de productos ya ha sido estudiada y se han definido algunos esquemas de evaluación pero no son específicos para Sistemas intensivos en Sofwtare; además, no se ha alcanzado consenso en los factores ni el procedimiento de evaluación. Por lo tanto, tiene sentido trabajar en la definición de un marco de evaluación de innovación enfocado a Sistemas intesivos en Software. Esta tesis identifica los elementos necesarios para construir in marco para la evaluación de de Sistemas intensivos en Software desde el punto de vista de la innovación. Se han identificado dos componentes como partes del marco de evaluación: un modelo de referencia y una herramienta adaptativa y personalizable para la realización de la evaluación y posicionamiento de la innovación. El modelo de referencia está compuesto por cuatro elementos principales que caracterizan la evaluación de innovación de productos: los conceptos, modelos de innovación, cuestionarios de evaluación y la evaluación de productos. El modelo de referencia aporta las bases para definir instancias de los modelos de evaluación de innovación de productos que pueden se evaluados y posicionados en la herramienta a través de cuestionarios y que de forma automatizada aporta los resultados de la evaluación y el posicionamiento respecto a la innovación de producto. El modelo de referencia ha sido rigurosamente construido aplicando modelado conceptual e integración de vistas junto con la aplicación de métodos cualitativos de investigación. La herramienta ha sido utilizada para evaluar productos como Skype a través de la instanciación del modelo de referencia. ABSTRACT Innovation in Software intensive Systems is becoming relevant for several reasons: software is present embedded in many sectors like automotive, robotics, mobile phones or heath care. Firms need to have knowledge about factors affecting the innovation to increase the probability of success in their product development and the assessment of innovation in software products is a powerful mechanism to capture this knowledge. Therefore, companies need to assess products from an innovation perspective to reduce the gap between their developed products and the market. This is even more relevant in the case of SiSs, where real time, timeliness, complexity, interoperability, reactivity, and resource sharing are critical features of a new system. Many authors have analysed product innovation assessment and some schemas have been developed but they are not specific to SiSs; in addition, there is no consensus about the factors or the procedures for performing an assessment. Therefore, it has sense to work in the definition of a customized software product innovation evaluation framework. This thesis identifies the elements needed to build a framework to assess software products from the innovation perspective. Two components have been identified as part of the framework to assess Software intensive Systems from the innovation perspective: a reference-model and an adaptive and customizable tool to perform the assessment and to position product innovation. The reference-model is composed by four main elements characterizing product innovation assessment: concepts, innovation models, assessment questionnaires and product assessment. The reference model provides the umbrella to define instances of product innovation assessment models that can be assessed and positioned through questionnaires in the proposed tool that also provides automation in the assessment and positioning of innovation. The reference-model has been rigorously built by applying conceptual modelling and view integration integrated with qualitative research methods. The tool has been used to assess products like Skype through models instantiated from the reference-model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe una creciente preocupación por las catástrofes de origen natural que están por llegar, motivo por el que se están realizando estudios desde prácticamente todas las ramas de la ciencia. La razón para ello se puede encontrar en el miedo a que los eventos futuros puedan dificultar las actividades humanas, aunque no es el único factor. Por todo ello, se produce una dispersión muy importante incluso en los conceptos más elementales como qué debe ser considerado o cómo debe llamarse y catalogarse uno u otro elemento. En consecuencia, los métodos para comprender los riesgos naturales también son muy diferentes, rara vez encontrándose enfoques realmente multidisciplinares. Se han realizado algunos esfuerzos para crear un marco de entendimiento común como por ejemplo, la "Directiva sobre inundaciones" o, más recientemente, la Directiva Inspire. Las entidades aseguradoras y reaseguradoras son un actor importante entre los muchos involucrados en los estudios de riesgos. Su interés radica en el hecho de que terminan pagando la mayor parte de la factura, si no toda. Pero, a cuánto puede ascender esa factura, no es una pregunta fácil de responder aún en casos muy concretos, y sin embargo, es la pregunta que constantemente se plantea por parte de los tomadores de decisiones a todos los niveles. Este documento resume las actividades de investigación que han llevado a cabo al objeto de sentar un marco de referencia, implementando de enfoques numéricos capaces de hacer frente a algunas de las cuestiones más relevantes que se encuentran en casi todos los estudios de riesgos naturales, ensayando conceptos de manera pragmática. Para ello, se escogió un lugar experimental de acuerdo a diferentes criterios, como la densidad de población, la facilidad de proporcionar los límites geográficos claros, la presencia de tres de los procesos geológicos más importantes (inundaciones, terremotos y vulcanismo) y la disponibilidad de datos. El modelo aquí propuesto aprovecha fuentes de datos muy diversas para evaluar los peligros naturales, poniendo de relieve la necesidad de un enfoque multidisciplinar y emplea un catálogo de datos único, unificado, independiente (no orientado), coherente y homogéneo para estimar el valor de las propiedades. Ahora bien, los datos se explotan de manera diferente según cada tipo de peligro, manteniendo sin variación los conceptos subyacentes. Durante esta investigación, se ha encontrado una gran brecha en la relación entre las pérdidas reales y las probabilidades del peligro, algo contrario a lo que se ha pensado que debía ser el comportamiento más probable de los riesgos naturales, demostrando que los estudios de riesgo tienen vida útil muy limitada. En parte debido ello, el modelo propuesto en este estudio es el de trabajar con escenarios, fijando una probabilidad de ocurrencia, lo que es contrario al modelo clásico de evaluar funciones continuas de riesgo. Otra razón para abordar la cuestión mediante escenarios es forzar al modelo para proporcionar unas cifras creíbles de daño máximo fijando cuestiones como la ubicación espacial de un evento y sus probabilidades, aportando una nueva visión del "peor escenario posible” de probabilidad conocida. ABSTRACT There is a growing concern about catastrophes of natural origin about to come hence many studies are being carried out from almost any science branch. Even though it is not the only one, fear for the upcoming events that might jeopardize any given human activity is the main motive. A forking effect is therefore heavily present even on the basic concepts of what is to be considered or how should it be named and catalogued; as a consequence, methods towards understanding natural risks also show great differences and a multidisciplinary approach has seldomly been followed. Some efforts were made to create a common understanding of such a matter, the “Floods Directive” or more recently the Inspire Directive, are a couple of examples. The insurance sector is an important actor among the many involved. Their interest relies on the fact that, eventually, they pay most of the bill if not all. But how much could that be is not an easy question to be answerd even in a very specific case, and it is almost always the question posed by decision makers at all levels. This document summarizes research activities that have being carried out in order to put some solid ground to be followed, implementing numerical approaches that are capable of coping with some of the most relevant issues found in almost all natural risk studies, testing concepts pragmatically. In order to do so, an experimental site was selected according to different criteria, such as population density, the ease of providing clear geographical boundaries, the presence of three of the most important geological processes (floods, earthquakes and volcanism) and data availability. The model herein proposed takes advantage of very diferent data sources in the assessment of hazard, pointing out how a multidisciplinary approach is needed, and uses only one unified, independent, consistent, homogeneous (non objective driven) source for assessing property value. Data is exploited differently according to each hazard type, but the underlying concepts remain the same. During this research, a deep detachment was found between actual loss and hazard chances, contrarily to what has been thought to be the most likely behaviour of natural hazards, proving that risk studies have a very limited lifespan. Partially because of such finding, the model in this study addresses scenarios with fixed probability of occurrence, as opposed to studying a continuous hazard function as usually proposed. Another reason for studying scenarios was to force the model to provide a reliable figure after a set of given parameters where fixed, such as the spatial location of an event and its chances, so the “worst case” of a given return period could be found.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motivado por los últimos hallazgos realizados gracias a los recientes avances tecnológicos y misiones espaciales, el estudio de los asteroides ha despertado el interés de la comunidad científica. Tal es así que las misiones a asteroides han proliferado en los últimos años (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) incentivadas por su enorme interés científico. Los asteroides son constituyentes fundamentales en la evolución del Sistema Solar, son además grandes concentraciones de valiosos recursos naturales, y también pueden considerarse como objectivos estratégicos para la futura exploración espacial. Desde hace tiempo se viene especulando con la posibilidad de capturar objetos próximos a la Tierra (NEOs en su acrónimo anglosajón) y acercarlos a nuestro planeta, permitiendo así un acceso asequible a los mismos para estudiarlos in-situ, explotar sus recursos u otras finalidades. Por otro lado, las asteroides se consideran con frecuencia como posibles peligros de magnitud planetaria, ya que impactos de estos objetos con la Tierra suceden constantemente, y un asteroide suficientemente grande podría desencadenar eventos catastróficos. Pese a la gravedad de tales acontecimientos, lo cierto es que son ciertamente difíciles de predecir. De hecho, los ricos aspectos dinámicos de los asteroides, su modelado complejo y las incertidumbres observaciones hacen que predecir su posición futura con la precisión necesaria sea todo un reto. Este hecho se hace más relevante cuando los asteroides sufren encuentros próximos con la Tierra, y más aún cuando estos son recurrentes. En tales situaciones en las cuales fuera necesario tomar medidas para mitigar este tipo de riesgos, saber estimar con precisión sus trayectorias y probabilidades de colisión es de una importancia vital. Por ello, se necesitan herramientas avanzadas para modelar su dinámica y predecir sus órbitas con precisión, y son también necesarios nuevos conceptos tecnológicos para manipular sus órbitas llegado el caso. El objetivo de esta Tesis es proporcionar nuevos métodos, técnicas y soluciones para abordar estos retos. Las contribuciones de esta Tesis se engloban en dos áreas: una dedicada a la propagación numérica de asteroides, y otra a conceptos de deflexión y captura de asteroides. Por lo tanto, la primera parte de este documento presenta novedosos avances de apliación a la propagación dinámica de alta precisión de NEOs empleando métodos de regularización y perturbaciones, con especial énfasis en el método DROMO, mientras que la segunda parte expone ideas innovadoras para la captura de asteroides y comenta el uso del “ion beam shepherd” (IBS) como tecnología para deflectarlos. Abstract Driven by the latest discoveries enabled by recent technological advances and space missions, the study of asteroids has awakened the interest of the scientific community. In fact, asteroid missions have become very popular in the recent years (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) motivated by their outstanding scientific interest. Asteroids are fundamental constituents in the evolution of the Solar System, can be seen as vast concentrations of valuable natural resources, and are also considered as strategic targets for the future of space exploration. For long it has been hypothesized with the possibility of capturing small near-Earth asteroids and delivering them to the vicinity of the Earth in order to allow an affordable access to them for in-situ science, resource utilization and other purposes. On the other side of the balance, asteroids are often seen as potential planetary hazards, since impacts with the Earth happen all the time, and eventually an asteroid large enough could trigger catastrophic events. In spite of the severity of such occurrences, they are also utterly hard to predict. In fact, the rich dynamical aspects of asteroids, their complex modeling and observational uncertainties make exceptionally challenging to predict their future position accurately enough. This becomes particularly relevant when asteroids exhibit close encounters with the Earth, and more so when these happen recurrently. In such situations, where mitigation measures may need to be taken, it is of paramount importance to be able to accurately estimate their trajectories and collision probabilities. As a consequence, advanced tools are needed to model their dynamics and accurately predict their orbits, as well as new technological concepts to manipulate their orbits if necessary. The goal of this Thesis is to provide new methods, techniques and solutions to address these challenges. The contributions of this Thesis fall into two areas: one devoted to the numerical propagation of asteroids, and another to asteroid deflection and capture concepts. Hence, the first part of the dissertation presents novel advances applicable to the high accuracy dynamical propagation of near-Earth asteroids using regularization and perturbations techniques, with a special emphasis in the DROMO method, whereas the second part exposes pioneering ideas for asteroid retrieval missions and discusses the use of an “ion beam shepherd” (IBS) for asteroid deflection purposes.