972 resultados para Modelos de simulación


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se presentan dos modelos de gestión de embalses en avenidas, el primero, basado en reglas de operación de los órganos de desagüe definidas por el usuario y, el segundo, correspondiente al método de gestión programada de embalses de Girón. Se incluye además un módulo que integra ambos métodos al sistema hidrometeorológico de alerta temprana FEWS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los accidentes del tráfico son un fenómeno social muy relevantes y una de las principales causas de mortalidad en los países desarrollados. Para entender este fenómeno complejo se aplican modelos econométricos sofisticados tanto en la literatura académica como por las administraciones públicas. Esta tesis está dedicada al análisis de modelos macroscópicos para los accidentes del tráfico en España. El objetivo de esta tesis se puede dividir en dos bloques: a. Obtener una mejor comprensión del fenómeno de accidentes de trafico mediante la aplicación y comparación de dos modelos macroscópicos utilizados frecuentemente en este área: DRAG y UCM, con la aplicación a los accidentes con implicación de furgonetas en España durante el período 2000-2009. Los análisis se llevaron a cabo con enfoque frecuencista y mediante los programas TRIO, SAS y TRAMO/SEATS. b. La aplicación de modelos y la selección de las variables más relevantes, son temas actuales de investigación y en esta tesis se ha desarrollado y aplicado una metodología que pretende mejorar, mediante herramientas teóricas y prácticas, el entendimiento de selección y comparación de los modelos macroscópicos. Se han desarrollado metodologías tanto para selección como para comparación de modelos. La metodología de selección de modelos se ha aplicado a los accidentes mortales ocurridos en la red viaria en el período 2000-2011, y la propuesta metodológica de comparación de modelos macroscópicos se ha aplicado a la frecuencia y la severidad de los accidentes con implicación de furgonetas en el período 2000-2009. Como resultado de los desarrollos anteriores se resaltan las siguientes contribuciones: a. Profundización de los modelos a través de interpretación de las variables respuesta y poder de predicción de los modelos. El conocimiento sobre el comportamiento de los accidentes con implicación de furgonetas se ha ampliado en este proceso. bl. Desarrollo de una metodología para selección de variables relevantes para la explicación de la ocurrencia de accidentes de tráfico. Teniendo en cuenta los resultados de a) la propuesta metodológica se basa en los modelos DRAG, cuyos parámetros se han estimado con enfoque bayesiano y se han aplicado a los datos de accidentes mortales entre los años 2000-2011 en España. Esta metodología novedosa y original se ha comparado con modelos de regresión dinámica (DR), que son los modelos más comunes para el trabajo con procesos estocásticos. Los resultados son comparables, y con la nueva propuesta se realiza una aportación metodológica que optimiza el proceso de selección de modelos, con escaso coste computacional. b2. En la tesis se ha diseñado una metodología de comparación teórica entre los modelos competidores mediante la aplicación conjunta de simulación Monte Cario, diseño de experimentos y análisis de la varianza ANOVA. Los modelos competidores tienen diferentes estructuras, que afectan a la estimación de efectos de las variables explicativas. Teniendo en cuenta el estudio desarrollado en bl) este desarrollo tiene el propósito de determinar como interpretar la componente de tendencia estocástica que un modelo UCM modela explícitamente, a través de un modelo DRAG, que no tiene un método específico para modelar este elemento. Los resultados de este estudio son importantes para ver si la serie necesita ser diferenciada antes de modelar. b3. Se han desarrollado nuevos algoritmos para realizar los ejercicios metodológicos, implementados en diferentes programas como R, WinBUGS, y MATLAB. El cumplimiento de los objetivos de la tesis a través de los desarrollos antes enunciados se remarcan en las siguientes conclusiones: 1. El fenómeno de accidentes del tráfico se ha analizado mediante dos modelos macroscópicos. Los efectos de los factores de influencia son diferentes dependiendo de la metodología aplicada. Los resultados de predicción son similares aunque con ligera superioridad de la metodología DRAG. 2. La metodología para selección de variables y modelos proporciona resultados prácticos en cuanto a la explicación de los accidentes de tráfico. La predicción y la interpretación también se han mejorado mediante esta nueva metodología. 3. Se ha implementado una metodología para profundizar en el conocimiento de la relación entre las estimaciones de los efectos de dos modelos competidores como DRAG y UCM. Un aspecto muy importante en este tema es la interpretación de la tendencia mediante dos modelos diferentes de la que se ha obtenido información muy útil para los investigadores en el campo del modelado. Los resultados han proporcionado una ampliación satisfactoria del conocimiento en torno al proceso de modelado y comprensión de los accidentes con implicación de furgonetas y accidentes mortales totales en España. ABSTRACT Road accidents are a very relevant social phenomenon and one of the main causes of death in industrialized countries. Sophisticated econometric models are applied in academic work and by the administrations for a better understanding of this very complex phenomenon. This thesis is thus devoted to the analysis of macro models for road accidents with application to the Spanish case. The objectives of the thesis may be divided in two blocks: a. To achieve a better understanding of the road accident phenomenon by means of the application and comparison of two of the most frequently used macro modelings: DRAG (demand for road use, accidents and their gravity) and UCM (unobserved components model); the application was made to van involved accident data in Spain in the period 2000-2009. The analysis has been carried out within the frequentist framework and using available state of the art software, TRIO, SAS and TRAMO/SEATS. b. Concern on the application of the models and on the relevant input variables to be included in the model has driven the research to try to improve, by theoretical and practical means, the understanding on methodological choice and model selection procedures. The theoretical developments have been applied to fatal accidents during the period 2000-2011 and van-involved road accidents in 2000-2009. This has resulted in the following contributions: a. Insight on the models has been gained through interpretation of the effect of the input variables on the response and prediction accuracy of both models. The behavior of van-involved road accidents has been explained during this process. b1. Development of an input variable selection procedure, which is crucial for an efficient choice of the inputs. Following the results of a) the procedure uses the DRAG-like model. The estimation is carried out within the Bayesian framework. The procedure has been applied for the total road accident data in Spain in the period 2000-2011. The results of the model selection procedure are compared and validated through a dynamic regression model given that the original data has a stochastic trend. b2. A methodology for theoretical comparison between the two models through Monte Carlo simulation, computer experiment design and ANOVA. The models have a different structure and this affects the estimation of the effects of the input variables. The comparison is thus carried out in terms of the effect of the input variables on the response, which is in general different, and should be related. Considering the results of the study carried out in b1) this study tries to find out how a stochastic time trend will be captured in DRAG model, since there is no specific trend component in DRAG. Given the results of b1) the findings of this study are crucial in order to see if the estimation of data with stochastic component through DRAG will be valid or whether the data need a certain adjustment (typically differencing) prior to the estimation. The model comparison methodology was applied to the UCM and DRAG models, considering that, as mentioned above, the UCM has a specific trend term while DRAG does not. b3. New algorithms were developed for carrying out the methodological exercises. For this purpose different softwares, R, WinBUGs and MATLAB were used. These objectives and contributions have been resulted in the following findings: 1. The road accident phenomenon has been analyzed by means of two macro models: The effects of the influential input variables may be estimated through the models, but it has been observed that the estimates vary from one model to the other, although prediction accuracy is similar, with a slight superiority of the DRAG methodology. 2. The variable selection methodology provides very practical results, as far as the explanation of road accidents is concerned. Prediction accuracy and interpretability have been improved by means of a more efficient input variable and model selection procedure. 3. Insight has been gained on the relationship between the estimates of the effects using the two models. A very relevant issue here is the role of trend in both models, relevant recommendations for the analyst have resulted from here. The results have provided a very satisfactory insight into both modeling aspects and the understanding of both van-involved and total fatal accidents behavior in Spain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la presente Tesis se realizó un análisis numérico, usando el código comercial Ansys-Fluent, de la refrigeración de una bola de combustible de un reactor de lecho de bolas (PBR, por sus siglas en inglés), ante un escenario de emergencia en el cual el núcleo sea desensamblado y las bolas se dejen caer en una piscina de agua, donde el mecanismo de transferencia de calor inicialmente sería la ebullición en película, implicando la convección y la radiación al fluido. Previamente se realizaron pruebas de validación, comparando los resultados numéricos con datos experimentales disponibles en la literatura para tres geometrías diferentes, lo cual permitió seleccionar los esquemas y modelos numéricos con mejor precisión y menor costo computacional. Una vez identificada la metodología numérica, todas las pruebas de validación fueron ampliamente satisfactorias, encontrándose muy buena concordancia en el flujo de calor promedio con los datos experimentales. Durante estas pruebas de validación se lograron caracterizar numéricamente algunos parámetros importantes en la ebullición en película con los cuales existen ciertos niveles de incertidumbre, como son el factor de acoplamiento entre convección y radiación, y el factor de corrección del calor latente de vaporización. El análisis térmico de la refrigeración de la bola del reactor por ebullición en película mostró que la misma se enfría, a pesar del calor de decaimiento, con una temperatura superficial de la bola que desciende de forma oscilatoria, debido al comportamiento inestable de la película de vapor. Sin embargo, la temperatura de esta superficie tiene una buena uniformidad, notándose que las áreas mejor y peor refrigeradas están localizadas en la parte superior de la bola. Se observó la formación de múltiples domos de vapor en diferentes posiciones circunferenciales, lo cual causa que el área más caliente de la superficie se localice donde se forman los domos más grandes. La separación entre los domos de vapor fue consistente con la teoría hidrodinámica, con la adición de que la separación entre domos se reduce a medida que evolucionan y crecen, debido a la curvatura de la superficie. ABSTRACT A numerical cooling analysis of a PBR fuel pebble, after an emergency scenario in which the nucleus disassembly is made and the pebbles are dropped into a water pool, transmitting heat by film boiling, involving convection and radiation to the fluid, is carried out in this Thesis. First, were performed validation tests comparing the numerical results with experimental works available for three different geometries, which allowed the selection of numerical models and schemes with better precision and lower computational cost. Once identified the numerical methodology, all validation tests were widely satisfactory, finding very good agreement with experimental works in average heat flux. During these validation tests were achieved numerically characterize some important parameters in film boiling with which there are certain levels of uncertainty, such as the coupling factor between convection and radiation, and the correction factor of the latent heat of vaporization. The thermal analysis of pebble cooling by film boiling shows that despite its decay heat, cooling occurs, with pebble surface temperature descending from an oscillatory manner, due to the instability of the vapor film. However, the temperature of this surface has a good uniformity, noting that the best and worst refrigerated area is located at the top of the pebble. The formation of multiple vapor domes at different circumferential positions is observed, which cause that the hottest area of the surface was located where biggest vapor domes were formed. The separation between vapor domes was consistent with the hydrodynamic theory, with the addition that the separation is reduced as the vapor dome evolves and grows, due to the surface curvature.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este documento es la descripción de una simulación de sistemas de vigilancia para la evaluación de herramientas de control de tráfico aéreo. Se pretende mostrar el desarrollo de un sistema radar en Modo S mediante una simulación por eventos discretos. Para ello, se ha desarrollado un software en lenguaje Java que incluye la simulación de trayectorias de aeronaves, métodos de obtención de posiciones, cambios entre los distintos sistemas de coordenadas, la simulación del barrido mecánico de un radar Modo S, así como modelos de cobertura y detección de aeronaves, creación de mensajes proporcionados mediante el enlace de datos Modo S (Downliked Airborne Parameters, DAP) que contienen información relevante para el control de tráfico aéreo, como pueden ser datos de velocidad o altura. Dentro del simulador del radar también se incluyen rutinas para la visualización en Matlab de los resultados obtenidos, lo que permite verificar las detecciones y ubicaciones de las aeronaves.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo consistirá en la fabricación de un amplificador en banda 3G pasando por todos los pasos del proceso, desde el análisis y diseño teórico, la simulación circuital y, por último, la fabricación y caracterización del amplificador. Se ha escogido una estructura balanceada, consistente en dos acopladores 3dB 90º colocados en cascada con dos amplificadores conectados entre las salidas del primero y las entradas del segundo, por la considerable ventaja que supone en términos de linealidad de la ganancia y simplicidad en la adaptación. La primera tarea a desarrollar será definir los valores teóricos a emplear en los componentes de la estructura, esto es, la caracterización de los acopladores 3dB 90º, de los transistores BJT y de las posibles etapas de acoplo necesarias para el correcto funcionamiento del mismo. Se comenzará empleando los modelos ideales de los componentes, realizando una primera simulación en MatLab para obtener los valores de los elementos que serán introducidos en el simulador circuital, en este proyecto ADS. Una vez terminada el diseño teórico ideal se procederá a introducir efectos perturbadores en la simulación circuital que representen más adecuadamente el comportamiento real que se encontrará al fabricar el prototipo. Se diseñará mediante simulación circuital (ADS) el amplificador considerando los parámetros circuitales de los componentes considerados (BJT NPN) procedentes de la hoja de especificaciones del fabricante. Una vez diseñado este, se ajustará el diseño del módulo amplificador teniendo en cuenta el comportamiento de las conexiones en microondas. El efecto de estas conexiones se considerará mediante equivalentes circuitales. Con todo esto se analizará el circuito completo, y con estos elementos introducidos se buscará optimizar el diseño teórico inicial para mantener dichos efectos perturbadores centro de un margen aceptable. Proseguirá el trabajo con la fabricación del prototipo, empleando líneas microstrip para los acopladores, y transistores BJT para los amplificadores. Terminada la fabricación se realizará la última tarea del trabajo, consistente en la medida del prototipo en el laboratorio, donde se observará la respuesta en frecuencia en módulo y fase de la estructura, realizando la caracterización en parámetros S del amplificador. Se analizarán los resultados y se compararán estos con el diseño, en caso de existir diferencias entre ambos se intentará encontrar la justificación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El funcionamiento interno del cerebro es todavía hoy en día un misterio, siendo su comprensión uno de los principales desafíos a los que se enfrenta la ciencia moderna. El córtex cerebral es el área del cerebro donde tienen lugar los procesos cerebrales de más alto nivel, cómo la imaginación, el juicio o el pensamiento abstracto. Las neuronas piramidales, un tipo específico de neurona, suponen cerca del 80% de los cerca de los 10.000 millones de que componen el córtex cerebral, haciendo de ellas un objetivo principal en el estudio del funcionamiento del cerebro. La morfología neuronal, y más específicamente la morfología dendrítica, determina cómo estas procesan la información y los patrones de conexión entre neuronas, siendo los modelos computacionales herramientas imprescindibles para el estudio de su rol en el funcionamiento del cerebro. En este trabajo hemos creado un modelo computacional, con más de 50 variables relativas a la morfología dendrítica, capaz de simular el crecimiento de arborizaciones dendríticas basales completas a partir de reconstrucciones de neuronas piramidales reales, abarcando desde el número de dendritas hasta el crecimiento los los árboles dendríticos. A diferencia de los trabajos anteriores, nuestro modelo basado en redes Bayesianas contempla la arborización dendrítica en su conjunto, teniendo en cuenta las interacciones entre dendritas y detectando de forma automática las relaciones entre las variables morfológicas que caracterizan la arborización. Además, el análisis de las redes Bayesianas puede ayudar a identificar relaciones hasta ahora desconocidas entre variables morfológicas. Motivado por el estudio de la orientación de las dendritas basales, en este trabajo se introduce una regularización L1 generalizada, aplicada al aprendizaje de la distribución von Mises multivariante, una de las principales distribuciones de probabilidad direccional multivariante. También se propone una distancia circular multivariante que puede utilizarse para estimar la divergencia de Kullback-Leibler entre dos muestras de datos circulares. Comparamos los modelos con y sin regularizaci ón en el estudio de la orientación de la dendritas basales en neuronas humanas, comprobando que, en general, el modelo regularizado obtiene mejores resultados. El muestreo, ajuste y representación de la distribución von Mises multivariante se implementa en un nuevo paquete de R denominado mvCircular.---ABSTRACT---The inner workings of the brain are, as of today, a mystery. To understand the brain is one of the main challenges faced by current science. The cerebral cortex is the region of the brain where all superior brain processes, like imagination, judge and abstract reasoning take place. Pyramidal neurons, a specific type of neurons, constitute approximately the 80% of the more than 10.000 million neurons that compound the cerebral cortex. It makes the study of the pyramidal neurons crucial in order to understand how the brain works. Neuron morphology, and specifically the dendritic morphology, determines how the information is processed in the neurons, as well as the connection patterns among neurons. Computational models are one of the main tools for studying dendritic morphology and its role in the brain function. We have built a computational model that contains more than 50 morphological variables of the dendritic arborizations. This model is able to simulate the growth of complete dendritic arborizations from real neuron reconstructions, starting with the number of basal dendrites, and ending modeling the growth of dendritic trees. One of the main diferences between our approach, mainly based on the use of Bayesian networks, and other models in the state of the art is that we model the whole dendritic arborization instead of focusing on individual trees, which makes us able to take into account the interactions between dendrites and to automatically detect relationships between the morphologic variables that characterize the arborization. Moreover, the posterior analysis of the relationships in the model can help to identify new relations between morphological variables. Motivated by the study of the basal dendrites orientation, a generalized L1 regularization applied to the multivariate von Mises distribution, one of the most used distributions in multivariate directional statistics, is also introduced in this work. We also propose a circular multivariate distance that can be used to estimate the Kullback-Leibler divergence between two circular data samples. We compare the regularized and unregularized models on basal dendrites orientation of human neurons and prove that regularized model achieves better results than non regularized von Mises model. Sampling, fitting and plotting functions for the multivariate von Mises are implemented in a new R packaged called mvCircular.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una de las principales preocupaciones a la hora de realizar cualquier proyecto de ingeniería es la adecuada determinación de los hidrogramas de avenida de los cursos de agua que lo afecten. Hoy en día es posible la simulación de modelos hidrológicos complejos de lluvia directa sobre malla 2D de elementos finitos, empleando los avances en cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo), sin la necesidad de determinar subcuencas y tránsitos (como en HEC-HMS). Con los datos que ofrecen los Modelos Digitales del Terreno GRID del PNOA español (Plan Nacional de Ortofotografía Aérea) con precisión de 5 x 5 m y las Coberturas del Terreno SIG CORINE (Coordinación de Información del Medio Ambiente), que permite la evaluación de la rugosidad del suelo, se tiene la información necesaria para construir fácilmente este tipo de modelos. En este documento se presenta un procedimiento para delimitar fácilmente los cursos de agua principales y disponer en estas zonas un tamaño más pequeño de los elementos de la malla. El método propuesto permite una mejor definición de estas áreas después de unas pocas iteraciones, acelerando por tanto el proceso de construcción del modelo sin comprometer la calidad de los resultados. Para demostrar el método, se modelizaron dos cuencas completas mediante lluvia directa sobre una malla de elementos 2D. Se ensayaron diferentes niveles de precisión (variando el número de elementos) y se incluyeron dos presas, usando los datos del Modelo Digital del Terreno del PNOA. También se completó el cálculo hidrológico de ambas mediante HEC-HMS. En primer lugar se estudió la cuenca del río Zapardiel (cuenca del Duero, con superficie total de 1.450 km2, no presenta regulación artificial, pero sí algunas áreas de almacenamiento naturales). La segunda cuenca ensayada correspondió al río Zújar (cuenca del Guadiana, con superficie total de 8.500 km2, que incluye dos grandes presas: La Serena, con una capacidad de 3.200 hm3 y el Embalse del Zújar, situado aguas abajo de la primera, con un volumen útil de 300 hm3). Los resultados confirmaron que la forma de modelizar clásica con enfoque de subcuencas y tránsitos (tipo HEC-HMS) puede ser reemplazada por simulaciones de lluvia directa sobre malla 2D, por lo tanto reduciendo la incertidumbre inherente en la estimación de tiempos de concentración de subcuencas y parámetros de tránsito. Gracias a la disponibilidad de datos públicos de GRID PNOA y cobertura del terreno CORINE, actualmente es posible construir modelos de mallas de elementos 2D para simular lluvia directa sobre cuenca sin necesidad de costosos levantamientos topográficos. Con el hardware disponible hoy en día en ordenadores de uso general, se puede establecer un límite superior razonable para mallas 2D de 4 millones de elementos, lo que permite la correcta simulación de la lluvia directa en cuencas de hasta 10.000 km2. Para cuencas más grandes, este proceso se podría aplicar de forma repetida a varias zonas más pequeñas o en sucesivas secciones de la cuenca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mecanización de las labores del suelo es la causa, por su consumo energético e impacto directo sobre el medio ambiente, que más afecta a la degradación y pérdida de productividad de los suelos. Entre los factores de disminución de la productividad se deben considerar la compactación, la erosión, el encostramiento y la pérdida de estructura. Todo esto obliga a cuidar el manejo agrícola de los suelos tratando de mejorar las condiciones del suelo y elevar sus rendimientos sin comprometer aspectos económicos, ecológicos y ambientales. En el presente trabajo se adecuan los parámetros constitutivos del modelo de Drucker Prager Extendido (DPE) que definen la fricción y la dilatancia del suelo en la fase de deformación plástica, para minimizar los errores en las predicciones durante la simulación de la respuesta mecánica de un Vertisol mediante el Método de Elementos Finitos. Para lo cual inicialmente se analizaron las bases teóricas que soportan este modelo, se determinaron las propiedades y parámetros físico-mecánicos del suelo requeridos como datos de entrada por el modelo, se determinó la exactitud de este modelo en las predicciones de la respuesta mecánica del suelo, se estimaron mediante el método de aproximación de funciones de Levenberg-Marquardt los parámetros constitutivos que definen la trayectoria de la curva esfuerzo-deformación plástica. Finalmente se comprobó la exactitud de las predicciones a partir de las adecuaciones realizadas al modelo. Los resultados permitieron determinar las propiedades y parámetros del suelo, requeridos como datos de entrada por el modelo, mostrando que su magnitud está en función su estado de humedad y densidad, además se obtuvieron los modelos empíricos de estas relaciones exhibiendo un R2>94%. Se definieron las variables que provocan las inexactitudes del modelo constitutivo (ángulo de fricción y dilatancia), mostrando que las mismas están relacionadas con la etapa de falla y deformación plástica. Finalmente se estimaron los valores óptimos de estos ángulos, disminuyendo los errores en las predicciones del modelo DPE por debajo del 4,35% haciéndelo adecuado para la simulación de la respuesta mecánica del suelo investigado. ABSTRACT The mechanization using farming techniques is one of the main factors that affects the most the soil, causing its degradation and loss of productivity, because of its energy consumption and direct impact on the environment. Compaction, erosion, crusting and loss of structure should be considered among the factors that decrease productivity. All this forces the necessity to take care of the agricultural-land management trying to improve soil conditions and increase yields without compromising economic, ecological and environmental aspects. The present study was aimed to adjust the parameters of the Drucker-Prager Extended Model (DPE), defining friction and dilation of soil in plastic deformation phase, in order to minimize the error of prediction when simulating the mechanical response of a Vertisol through the fine element method. First of all the theoretic fundamentals that withstand the model were analyzed. The properties and physical-mechanical parameters of the soil needed as input data to initialize the model, were established. And the precision of the predictions for the mechanical response of the soil was assessed. Then the constitutive parameters which define the path of the plastic stress-strain curve were estimated through Levenberg-Marquardt method of function approximations. Lastly the accuracy of the predictions from the adequacies made to the model was tested. The results permitted to determine those properties and parameters of the soil, needed in order to initialize the model. It showed that their magnitude is in function of density and humidity. Moreover, the empirical models from these relations were obtained: R2>94%. The variables producing inaccuracies in the constitutive model (angle of repose and dilation) were defined, and there was showed that they are linked with the plastic deformation and rupture point. Finally the optimal values of these angles were established, obtaining thereafter error values for the DPE model under 4, 35%, and making it suitable for the simulation of the mechanical response of the soil under study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral presenta el desarrollo, verificación y aplicación de un método original de regionalización estadística para generar escenarios locales de clima futuro de temperatura y precipitación diarias, que combina dos pasos. El primer paso es un método de análogos: los "n" días cuya configuración atmosférica de baja resolución es más parecida a la del día problema, se seleccionan de un banco de datos de referencia del pasado. En el segundo paso, se realiza un análisis de regresión múltiple sobre los "n" días más análogos para la temperatura, mientras que para la precipitación se utiliza la distribución de probabilidad de esos "n" días análogos para obtener la estima de precipitación. La verificación de este método se ha llevado a cabo para la España peninsular y las Islas Baleares. Los resultados muestran unas buenas prestaciones para temperatura (BIAS cerca de 0.1ºC y media de errores absolutos alrededor de 1.9ºC); y unas prestaciones aceptables para la precipitación (BIAS razonablemente bajo con una media de -18%; error medio absoluto menor que para una simulación de referencia (la persistencia); y una distribución de probabilidad simulada similar a la observada según dos test no-paramétricos de similitud). Para mostrar la aplicabilidad de la metodología desarrollada, se ha aplicado en detalle en un caso de estudio. El método se aplicó a cuatro modelos climáticos bajo diferentes escenarios futuros de emisiones de gases de efecto invernadero, para la región de Aragón, produciendo así proyecciones futuras de precipitación y temperaturas máximas y mínimas diarias. La fiabilidad de la técnica de regionalización fue evaluada de nuevo para el caso de estudio mediante un proceso de verificación. Para determinar la capacidad de los modelos climáticos para simular el clima real, sus simulaciones del pasado (la denominada salida 20C3M) se regionalizaron y luego se compararon con el clima observado (los resultados son bastante robustos para la temperatura y menos concluyentes para la precipitación). Las proyecciones futuras a escala local presentan un aumento significativo durante todo el siglo XXI de las temperaturas máximas y mínimas para todos los futuros escenarios de emisiones considerados. Las simulaciones de precipitación presentan mayores incertidumbres. Además, la aplicabilidad práctica del método se demostró también mediante su utilización para producir escenarios climáticos futuros para otros casos de estudio en los distintos sectores y regiones del mundo. Se ha prestado especial atención a una aplicación en Centroamérica, una región que ya está sufriendo importantes impactos del cambio climático y que tiene un clima muy diferente. ABSTRACT This doctoral thesis presents the development, verification and application of an original downscaling method for daily temperature and precipitation, which combines two statistical approaches. The first step is an analogue approach: the “n” days most similar to the day to be downscaled are selected. In the second step, a multiple regression analysis using the “n” most analogous days is performed for temperature, whereas for precipitation the probability distribution of the “n” analogous days is used to obtain the amount of precipitation. Verification of this method has been carried out for the Spanish Iberian Peninsula and the Balearic Islands. Results show good performance for temperature (BIAS close to 0.1ºC and Mean Absolute Errors around 1.9ºC); and an acceptable skill for precipitation (reasonably low BIAS with a mean of - 18%, Mean Absolute Error lower than for a reference simulation, i.e. persistence, and a well-simulated probability distribution according to two non-parametric tests of similarity). To show the applicability of the method, a study case has been analyzed. The method was applied to four climate models under different future emission scenarios for the region of Aragón, thus producing future projections of daily precipitation and maximum and minimum temperatures. The reliability of the downscaling technique was re-assessed for the study case by a verification process. To determine the ability of the climate models to simulate the real climate, their simulations of the past (the 20C3M output) were downscaled and then compared with the observed climate – the results are quite robust for temperature and less conclusive for the precipitation. The downscaled future projections exhibit a significant increase during the entire 21st century of the maximum and minimum temperatures for all the considered future emission scenarios. Precipitation simulations exhibit greater uncertainties. Furthermore, the practical applicability of the method was demonstrated also by using it to produce future climate scenarios for some other study cases in different sectors and regions of the world. Special attention was paid to an application of the method in Central America, a region that is already suffering from significant climate change impacts and that has a very different climate from others where the method was previously applied.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mayoría de las estructuras construidas actualmente están constituidas por hormigón armado, el cual, a pesar de poseer una gran resistencia, está expuesto a múltiples amenazas. Una de ellas, y de las que más preocupa a la sociedad actualmente, son los posibles ataques terroristas como impactos o colocación de explosivos en las proximidades de las estructuras o en el interior de las mismas. Por ello, cada vez más se está mostrando un gran interés en el comportamiento de la estructura y sus diferentes componentes para poder prevenir cualquier tipo de daño. Con este fin, el presente proyecto aborda el estudio de un caso de colapso de estructura sometida a una carga explosiva. El estudio y la modelización del hormigón armado presenta un gran reto debido a los múltiples factores que definen su comportamiento, marcadamente no lineal cuando se producen en él grandes deformaciones. Se ha procedido a la realización del estudio de una estructura porticada de dos plantas, utilizando diferentes técnicas de simulación mediante el programa de elementos finitos LS-DYNA. En concreto se han empleado tres modelos diferentes, un modelo de elementos finitos sólidos tridimensionales con materiales segregados (hormigón y acero), un modelo de elementos finitos estructurales (viga, lámina) con material homogeneizado, y un modelo de elementos finitos estructurales con materiales segregados, comparando la evolución del colapso de la estructura tras la demolición de uno de los pilares centrales. Se ha analizado también el desplazamiento y la velocidad de colapso para un punto concreto. Estos resultados han sido comparados con los datos obtenidos de la fase de ensayo del Proyecto SEGTRANS sobre el mismo punto de la estructura. Con todo ello se ha podido determinar la viabilidad de los modelos para el estudio del colapso de la estructura porticada empleada en este trabajo, señalando las ventajas de cada uno de ellos, y la posibilidad de la aplicación de estos modelos para el estudio de la estructura de un edificio completo teniendo en cuenta las limitaciones de los mismos y de los recursos existentes actualmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los procesos de diseño y construcción en Arquitectura han mostrado un desarrollo de optimización históricamente muy deficiente cuando se compara con las restantes actividades típicamente industriales. La aspiración constante a una industrialización efectiva, tanto en aras de alcanzar mayores cotas de calidad así como de ahorro de recursos, recibe hoy una oportunidad inmejorable desde el ámbito informático: el Building Information Modelling o BIM. Lo que en un inicio puede parecer meramente un determinado tipo de programa informático, en realidad supone un concepto de “proceso” que subvierte muchas rutinas hoy habituales en el desarrollo de proyectos y construcciones arquitectónicas. La inclusión y desarrollo de datos ligados al proyecto, desde su inicio hasta el fin de su ciclo de vida, conlleva la oportunidad de crear una realidad virtual dinámica y actualizable, que por añadidura posibilita su ensayo y optimización en todos sus aspectos: antes y durante su ejecución, así como vida útil. A ello se suma la oportunidad de transmitir eficientemente los datos completos de proyecto, sin apenas pérdidas o reelaboración, a la cadena de fabricación, lo que facilita el paso a una industrialización verdaderamente significativa en edificación. Ante una llamada mundial a la optimización de recursos y el interés indudable de aumentar beneficios económicos por medio de la reducción del factor de incertidumbre de los procesos, BIM supone un opción de mejora indudable, y así ha sido reconocido a través de la inminente implantación obligatoria por parte de los gobiernos (p. ej. Gran Bretaña en 2016 y España en 2018). La modificación de procesos y roles profesionales que conlleva la incorporación de BIM resulta muy significativa y marcará el ejercicio profesional de los futuros graduados en las disciplinas de Arquitectura, Ingeniería y Construcción (AEC por sus siglas en inglés). La universidad debe responder ágilmente a estas nuevas necesidades incorporando esta metodología en la enseñanza reglada y aportando una visión sinérgica que permita extraer los beneficios formativos subyacentes en el propio marco BIM. En este sentido BIM, al aglutinar el conjunto de datos sobre un único modelo virtual, ofrece un potencial singularmente interesante. La realidad tridimensional del modelo, desarrollada y actualizada continuamente, ofrece al estudiante una gestión radicalmente distinta de la representación gráfica, en la que las vistas parciales de secciones y plantas, tan complejas de asimilar en los inicios de la formación universitaria, resultan en una mera petición a posteriori, para ser extraída según necesidad del modelo virtual. El diseño se realiza siempre sobre el propio modelo único, independientemente de la vista de trabajo elegida en cada momento, permaneciendo los datos y sus relaciones constructivas siempre actualizados y plenamente coherentes. Esta descripción condensada de características de BIM preconfiguran gran parte de las beneficios formativos que ofrecen los procesos BIM, en especial, en referencia al desarrollo del diseño integrado y la gestión de la información (incluyendo TIC). Destacan a su vez las facilidades en comprensión visual de elementos arquitectónicos, sistemas técnicos, sus relaciones intrínsecas así como procesos constructivos. A ello se une el desarrollo experimental que la plataforma BIM ofrece a través de sus software colaborativos: la simulación del comportamiento estructural, energético, económico, entre otros muchos, del modelo virtual en base a los datos inherentes del proyecto. En la presente tesis se describe un estudio de conjunto para explicitar tanto las cualidades como posibles reservas en el uso de procesos BIM, en el marco de una disciplina concreta: la docencia de la Arquitectura. Para ello se ha realizado una revisión bibliográfica general sobre BIM y específica sobre docencia en Arquitectura, así como analizado las experiencias de distintos grupos de interés en el marco concreto de la enseñanza de la en Arquitectura en la Universidad Europea de Madrid. El análisis de beneficios o reservas respecto al uso de BIM se ha enfocado a través de la encuesta a estudiantes y la entrevista a profesionales AEC relacionados o no con BIM. Las conclusiones del estudio permiten sintetizar una implantación de metodología BIM que para mayor claridad y facilidad de comunicación y manejo, se ha volcado en un Marco de Implantación eminentemente gráfico. En él se orienta sobre las acciones docentes para el desarrollo de competencias concretas, valiéndose de la flexibilidad conceptual de los Planes de Estudio en el contexto del Espacio Europeo de Educación Superior (Declaración de Bolonia) para incorporar con naturalidad la nueva herramienta docente al servicio de los objetivos formativo legalmente establecidos. El enfoque global del Marco de Implementación propuesto facilita la planificación de acciones formativas con perspectiva de conjunto: combinar los formatos puntuales o vehiculares BIM, establecer sinergias transversales y armonizar recursos, de modo que la metodología pueda beneficiar tanto la asimilación de conocimientos y habilidades establecidas para el título, como el propio flujo de aprendizaje o learn flow BIM. Del mismo modo reserva, incluso visualmente, aquellas áreas de conocimiento en las que, al menos en la planificación actual, la inclusión de procesos BIM no se considera ventajosa respecto a otras metodologías, o incluso inadecuadas para los objetivos docentes establecidos. Y es esta última categorización la que caracteriza el conjunto de conclusiones de esta investigación, centrada en: 1. la incuestionable necesidad de formar en conceptos y procesos BIM desde etapas muy iniciales de la formación universitaria en Arquitectura, 2. los beneficios formativos adicionales que aporta BIM en el desarrollo de competencias muy diversas contempladas en el currículum académico y 3. la especificidad del rol profesional del arquitecto que exigirá una implantación cuidadosa y ponderada de BIM que respete las metodologías de desarrollo creativo tradicionalmente efectivas, y aporte valor en una reorientación simbiótica con el diseño paramétrico y fabricación digital que permita un diseño finalmente generativo. ABSTRACT The traditional architectural design and construction procedures have proven to be deficient where process optimization is concerned, particularly when compared to other common industrial activities. The ever‐growing strife to achieve effective industrialization, both in favor of reaching greater quality levels as well as sustainable management of resources, has a better chance today than ever through a mean out of the realm of information technology, the Building Information Modelling o BIM. What may initially seem to be merely another computer program, in reality turns out to be a “process” concept that subverts many of today’s routines in architectural design and construction. Including and working with project data from the very beginning to the end of its full life cycle allows for creating a dynamic and updatable virtual reality, enabling data testing and optimizing throughout: before and during execution, all the way to the end of its lifespan. In addition, there is an opportunity to transmit complete project data efficiently, with hardly any loss or redeveloping of the manufacture chain required, which facilitates attaining a truly significant industrialization within the construction industry. In the presence of a world‐wide call for optimizing resources, along with an undeniable interest in increasing economic benefits through reducing uncertainty factors in its processes, BIM undoubtedly offers a chance for improvement as acknowledged by its imminent and mandatory implementation on the part of governments (for example United Kingdom in 2016 and Spain in 2018). The changes involved in professional roles and procedures upon incorporating BIM are highly significant and will set the course for future graduates of Architecture, Engineering and Construction disciplines (AEC) within their professions. Higher Education must respond to such needs with swiftness by incorporating this methodology into their educational standards and providing a synergetic vision that focuses on the underlying educational benefits inherent in the BIM framework. In this respect, BIM, in gathering data set under one single virtual model, offers a uniquely interesting potential. The three‐dimensional reality of the model, under continuous development and updating, provides students with a radically different graphic environment, in which partial views of elevation, section or plan that tend characteristically to be difficult to assimilate at the beginning of their studies, become mere post hoc requests to be ordered when needed directly out the virtual model. The design is always carried out on the sole model itself, independently of the working view chosen at any particular moment, with all data and data relations within construction permanently updated and fully coherent. This condensed description of the features of BIM begin to shape an important part of the educational benefits posed by BIM processes, particularly in reference to integrated design development and information management (including ITC). At the same time, it highlights the ease with which visual understanding is achieved regarding architectural elements, technology systems, their intrinsic relationships, and construction processes. In addition to this, there is the experimental development the BIM platform grants through its collaborative software: simulation of structural, energetic, and economic behavior, among others, of the virtual model according to the data inherent to the project. This doctoral dissertation presents a broad study including a wide array of research methods and issues in order to specify both the virtues and possible reservations in the use of BIM processes within the framework of a specific discipline: teaching Architecture. To do so, a literature review on BIM has been carried out, specifically concerning teaching in the discipline of Architecture, as well as an analysis of the experience of different groups of interest delimited to Universidad Europea de Madrid. The analysis of the benefits and/or limitations of using BIM has been approached through student surveys and interviews with professionals from the AEC sector, associated or not, with BIM. Various diverse educational experiences are described and academic management for experimental implementation has been analyzed. The conclusions of this study offer a synthesis for a Framework of Implementation of BIM methodology, which in order to reach greater clarity, communication ease and user‐friendliness, have been posed in an eminently graphic manner. The proposed framework proffers guidance on teaching methods conducive to the development of specific skills, taking advantage of the conceptual flexibility of the European Higher Education Area guidelines based on competencies, which naturally facilitate for the incorporation of this new teaching tool to achieve the educational objectives established by law. The global approach of the Implementation Framework put forth in this study facilitates the planning of educational actions within a common perspective: combining exceptional or vehicular BIM formats, establishing cross‐disciplinary synergies, and sharing resources, so as to purport a methodology that contributes to the assimilation of knowledge and pre‐defined competencies within the degree program, and to the flow of learning itself. At the same time, it reserves, even visually, those areas of knowledge in which the use of BIM processes is not considered necessarily an advantage over other methodologies, or even inadequate for the learning outcomes established, at least where current planning is concerned. It is this last category which characterizes the research conclusions as a whole, centering on: 1. The unquestionable need for teaching BIM concepts and processes in Architecture very early on, in the initial stages of higher education; 2. The additional educational benefits that BIM offers in a varied array of competency development within the academic curriculum; and 3. The specific nature of the professional role of the Architect, which demands a careful and balanced implementation of BIM that respects the traditional teaching methodologies that have proven effective and creative, and adds value by a symbiotic reorientation merged with parametric design and digital manufacturing so to enable for a finally generative design.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta memoria es el resultado de un proyecto cuyo objetivo ha sido realizar un análisis de la posible aplicación de técnicas relativas al Process Mining para entornos AmI (Ambient Intelligence). Dicho análisis tiene la facultad de presentar de forma clara los resultados extraídos de los procesos relativos a un caso de uso planteado, así como de aplicar dichos resultados a aplicaciones relativas a entornos AmI, como automatización de tareas o simulación social basada en agentes. Para que dicho análisis sea comprensible por el lector, se presentan detalladas explicaciones de los conceptos tratados y las técnicas empleadas. Además, se analizan exhaustivamente las dos herramientas software más utilizadas en cuanto a minería de procesos se refiere, ProM y Disco, presentando ventajas e inconvenientes de cada una, así como una comparación entre las dos. Posteriormente se ha desarrollado una metodología para el análisis de procesos con la herramienta ProM, anteriormente mencionada, explicando cuidadosamente cada uno de los pasos así como los fundamentos de los algoritmos utilizados. Por último, se han presentado las conclusiones extraídas del trabajo, así como las posibles líneas de continuación del proyecto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los análisis de sensibilidad son una herramienta importante para comprender el funcionamiento de los modelos ecológicos, así como para identificar los parámetros más importantes en su funcionamiento. Además, los análisis de sensibilidad pueden utilizarse para diseñar de forma más efectiva planes de muestreo de campo dirigidos a calibrar los modelos ecológicos. En los estudios de ecosistemas forestales, el análisis cuantitativo de la parte subterránea es mucho más costoso y complicado que el estudio de la parte aérea, en especial el estudio de la dinámica de producción y descomposición de raíces gruesas y finas de los árboles. En este trabajo se muestra un ejemplo de análisis de sensibilidad del modelo forestal FORECAST a parámetros que definen la biomasa, longevidad y concentración de nitrógeno en las raíces de los árboles. El modelo se calibró para simular dos rodales de pino silvestre (Pinus sylvestris) en los Pirineos de Navarra. Los resultados indican que la tasa de renovación de raíces finas es el parámetro más influyente en las estimaciones del modelo de crecimiento de los árboles, seguida de la concentración de N en las mismas, siendo la relación biomasa subterránea/total el parámetro al cual el modelo es menos sensible. Además, el modelo es más sensible a los parámetros que definen el componente subterráneo de la biomasa arbórea cuando simula un sitio de menor capacidad productiva y mayor limitación por nutrientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este proyecto consiste en el desarrollo de un sistema para simular misiones de rescate usando equipos de robots donde cada robot tiene sus propios objetivos y debe coordinarse con el resto de sus compañeros para realizar con existo la misión de rescate en escenarios dinámicos. El escenario se caracteriza por contener: - Agentes Robot: son las entidades del sistema encargado de tareas relacionadas con el rescate, como por ejemplo, explorar el terreno o rescatar a una víctima. Se organizan de forma jerárquica, esto es, hay un jefe encargado de asignar tareas a los demás robots, que serán subordinados. - Víctimas: son los objetivos a rescatar en la misión. Tienen una identificación, una localización y una esperanza de vida. -Obstáculos: delimitan una zona por la que el robot no puede pasar. Simulan la existencia de paredes, rocas, árboles…, es decir, cualquier tipo de estructura existente en un escenario real. - Zona segura: marca un punto del mapa adonde los robots moverán a las víctimas en el rescate. Representa lo que en un rescate real sería un campamento u hospital. El sistema permite: - Crear y gestionar escenarios de simulación - Definir equipos de robots con diferentes miembros, diferentes objetivos y comportamientos. - Definir modelos organizativos en los equipos y estrategias de coordinación. - Realizar los objetivos individuales y de grupo para salvar a las víctimas llevándolas al sitio seguro esquivando los obstáculos. - Realizar experimentos de simulación: probar distintas configuraciones de equipo con un número variable de robots, varias víctimas en lugares diferentes y escenarios independientes. Se ha partido del proyecto ROSACE(Robots et Systèmes AutoCommunicants Embarqués / Robots y sistemas embebidos autocomunicantes), que está construido sobre la herramienta ICARO, que es una Infraestructura Ligera de Componentes Software Java basada en Agentes y Recursos y Organizaciones para el desarrollo de aplicaciones distribuidas. El punto de partida ya implementaba una versión preliminar del proyecto capaz de organizar objetivos entre los robots y que consigan ir a la localización objetivo. El presente proyecto utiliza el patrón arquitectónico de ROSACE y parte de su infraestructura pero desarrolla un sistema original con nuevas herramientas para definir y gestionar escenarios, disponer de un modelo más realista del comportamiento de los robots y controlar el proceso de simulación para incluir posibles fallos de los robots y para el estudio individual y colectivo de los miembros de los equipos.