958 resultados para second-order model
Resumo:
We analyzed 580 integrated scrape-samples from HPC Site 480 for organic and carbonate carbon. Once precise dating is available, these will provide a high-resolution framework for understanding late Quaternary Oceanographic and climatic fluctuations in this region. Organic carbon ranges mostly within a narrow band of 1.8 to 3.5% C. Calcium carbonate varies from undetectable to over 20%, with an average of only about 5%. Source of carbonate are mostly benthic and planktonic foraminifers, although some sections are dominated by diagenetic carbonate, shelly hash, or nannofossils. Detrital sources are low in carbonate. We divided the sequence into 17 calcium carbonate (CC) zones to separate pulses, low and median values. The CC-Zones show various second-order patterns of cyclicity, asymmetry, and events. Laminated zones have lowest uniform values, but a perfect correlation between carbonate content and homogeneous or laminated facies was not found. Maximum values tend to be located near the transition of these two sediment types, showing that accumulation of carbonate is favored during times of breakdown of stable Oceanographic conditions.
Resumo:
More than 2000 turbidite, debris-flow, and slump deposits recovered at Site 823 record the history of the Queensland Trough since the middle Miocene and provide new insights about turbidites, debris flow, and slump deposits (herein termed gravity deposits). Changes in the composition and nature of gravity deposits through time can be related to tectonic movements, fluctuations in eustatic sea level, and sedimentological factors. The Queensland Trough is a long, relatively narrow, structural depression that formed as a result of Cretaceous to Tertiary rifting of the northeastern Australia continental margin. Thus, tectonics established the geometry of this marginal basin, and its steep slopes set the stage for repeated slope failures. Seismic data indicate that renewed faulting, subsidence, and associated tectonic tilting occurred during the early late Miocene (continuing into the early Pliocene), resulting in unstable slopes that were prone to slope failures and to generation of gravity deposits. Tectonic subsidence, together with a second-order eustatic highstand, resulted in platform drowning during the late Miocene. The composition of turbidites reflects their origin and provides insights about the nature of sedimentation on adjacent shelf areas. During relative highstands and times of platform drowning, planktonic foraminifers were reworked from slopes and/or drowned shelves and were redeposited in turbidites. During relative lowstands, quartz and other terrigenous sediment was shed into the basin. Quartzose turbidites and clay-rich hemipelagic muds also can record increased supply of terrigenous sediment from mainland Australia. Limestone fragments were eroded from carbonate platforms until the drowned platforms were buried under hemipelagic sediments following the late Miocene drowning event. Bioclastic grains and neritic foraminifers were reworked from neritic shelves during relative lowstands. During the late Pliocene (2.6 Ma), the increased abundance of bioclasts and quartz in turbidites signaled the shallowing and rejuvenation of the northeastern Australia continental shelf. However, a one-for-one relationship cannot be recognized between eustatic sea-level fluctuations and any single sedimentologic parameter. Perhaps, tectonism and sedimentological factors along the Queensland Trough played an equally important role in generating gravity deposits. Turbidites and other gravity deposits (such as those at Site 823) do not necessarily represent submarine fan deposits, particularly if they are composed of hemipelagic sediments reworked from drowned platforms and slopes. When shelves are drowned and terrigenous sediment is not directly supplied by nearby rivers/point sources, muddy terrigenous sediments blanket the entire slope and basin, rather than forming localized fans. Slope failures affect the entire slope, rather than localized submarine canyons. Slopes may become destabilized as a result of tectonic activity, inherent sediment weaknesses, and/or during relative sea-level lowstands. For this reason, sediment deposits in this setting reflect tectonic and eustatic events that caused slope instabilities, rather than migration of different submarine fan facies.
Resumo:
The calcareous nannofossil biostratigraphy of ODP Leg 177 Sites 1088 and 1090 (Subantarctic sector from the Atlantic Ocean) is discussed. Most nannofossil zonal boundaries of Martini (1971) and Okada and Bukry (1980) were recognized for the studied mid-high-latitude sediments. Conventional low-latitude marker species such as Amaurolithus spp., Discoaster spp., Triquetrorhabdulus spp., Ceratolithus spp. were recorded as rare and scattered, which impeded the development of a detailed nannofossil biostratigraphic zonation of some Miocene and Pliocene intervals. Because of the absence of some primary biostratigraphic marker species, additional second-order bioevents, such as the first occurrence of Calcidiscus macintyrei and the last occurrence of Coccolithus miopelagicus, have been used to approximate the base of zones NN7 and NN8, respectively. Several disconformities disturbing the Pliocene and Miocene intervals of Site 1090 could be determined based on nannofossil distribution although the occurrence of intervals with dissolved nannofloras and low species diversity prevented a reliable age assignment. An acme of small Gephyrocapsa was recognized near the lower/middle Pliocene boundary, close to the NN15-NN16 zonal boundary, presenting an event for further improvement of the calcareous nannofossil biostratigraphy of this interval time. The first occurrence of Pseudoemiliania lacunosa (>4 µm) occurs close to this interval, representing a fairly reliable event to approximate the base of NN15 zone when other biozonal events are absent. A paracme of R. pseudoumbilicus (>7 µm) was detected in the lower Pliocene NN12 and in the upper Miocene NN11. These temporary absences of the species seem to be isochronous between high-latitude and low-middle-latitude areas.
Resumo:
We correlated Miocene d18O increases at Ocean Drilling Program Site 747 with d18O increases previously identified at North Atlantic Deep Sea Drilling Project Sites 563 and 608. The d18O increases have been directly tied to the Geomagnetic Polarity Time Scale (GPTS) at Site 563 and 608, and thus our correlations at Site 747 provide a second-order correlation to the GPTS. Comparison of the oxygen isotope record at Site 747 with records at Sites 563 and 608 indicates that three as-yet-undescribed global Miocene d18O increases may be recognized and used to define stable isotope zones. The d18O maxima associated with the bases of Zones Mila, Milb, and Mi7 have magnetochronologic age estimates of 21.8, 18.3, and 8.5 Ma, respectively. The correlation of a d18O maximum at 70 mbsf at Site 747 to the base of Miocene isotope Zone Mi3 (13.6 Ma) provides a revised interpretation of four middle Miocene normal polarity intervals observed between 77 and 63 mbsf at Hole 747A. Oxygen isotope stratigraphy indicates that the reversed polarity interval at 70 mbsf, initially interpreted as Chronozone C5AAr, should be C5ABr. Instead of a concatenated Chronozone C5AD-C5AC with distinct Chronozones C5AB, C5AA, and C5A (as in the preliminary interpretation), d18O stratigraphy suggests that these normal polarity intervals are Chronozones C5AD, C5AC, and C5AB, whereas Chronozones C5AA-C5A are concatenated. This interpretation is supported by the d13C correlations. The upper Miocene magnetostratigraphic record at Hole 747A is ambiguous. Two upper Miocene d18O events at Site 747 can be correlated to the oxygen isotope records at Site 563 and 608 using the magnetostratigraphy derived at Hole 747B. Our chronostratigraphic revisions highlight the importance of stable isotope stratigraphy in attaining an integrated stratigraphic framework for the Miocene.
Resumo:
Introduction and motivation: A wide variety of organisms have developed in-ternal biomolecular clocks in order to adapt to cyclic changes of the environment. Clock operation involves genetic networks. These genetic networks have to be mod¬eled in order to understand the underlying mechanism of oscillations and to design new synthetic cellular clocks. This doctoral thesis has resulted in two contributions to the fields of genetic clocks and systems and synthetic biology, generally. The first contribution is a new genetic circuit model that exhibits an oscillatory behav¬ior through catalytic RNA molecules. The second and major contribution is a new genetic circuit model demonstrating that a repressor molecule acting on the positive feedback of a self-activating gene produces reliable oscillations. First contribution: A new model of a synthetic genetic oscillator based on a typical two-gene motif with one positive and one negative feedback loop is pre¬sented. The originality is that the repressor is a catalytic RNA molecule rather than a protein or a non-catalytic RNA molecule. This catalytic RNA is a ribozyme that acts post-transcriptionally by binding to and cleaving target mRNA molecules. This genetic clock involves just two genes, a mRNA and an activator protein, apart from the ribozyme. Parameter values that produce a circadian period in both determin¬istic and stochastic simulations have been chosen as an example of clock operation. The effects of the stochastic fluctuations are quantified by a period histogram and autocorrelation function. The conclusion is that catalytic RNA molecules can act as repressor proteins and simplify the design of genetic oscillators. Second and major contribution: It is demonstrated that a self-activating gene in conjunction with a simple negative interaction can easily produce robust matically validated. This model is comprised of two clearly distinct parts. The first is a positive feedback created by a protein that binds to the promoter of its own gene and activates the transcription. The second is a negative interaction in which a repressor molecule prevents this protein from binding to its promoter. A stochastic study shows that the system is robust to noise. A deterministic study identifies that the oscillator dynamics are mainly driven by two types of biomolecules: the protein, and the complex formed by the repressor and this protein. The main conclusion of this study is that a simple and usual negative interaction, such as degradation, se¬questration or inhibition, acting on the positive transcriptional feedback of a single gene is a sufficient condition to produce reliable oscillations. One gene is enough and the positive transcriptional feedback signal does not need to activate a second repressor gene. At the genetic level, this means that an explicit negative feedback loop is not necessary. Unlike many genetic oscillators, this model needs neither cooperative binding reactions nor the formation of protein multimers. Applications and future research directions: Recently, RNA molecules have been found to play many new catalytic roles. The first oscillatory genetic model proposed in this thesis uses ribozymes as repressor molecules. This could provide new synthetic biology design principles and a better understanding of cel¬lular clocks regulated by RNA molecules. The second genetic model proposed here involves only a repression acting on a self-activating gene and produces robust oscil¬lations. Unlike current two-gene oscillators, this model surprisingly does not require a second repressor gene. This result could help to clarify the design principles of cellular clocks and constitute a new efficient tool for engineering synthetic genetic oscillators. Possible follow-on research directions are: validate models in vivo and in vitro, research the potential of second model as a genetic memory, investigate new genetic oscillators regulated by non-coding RNAs and design a biosensor of positive feedbacks in genetic networks based on the operation of the second model Resumen Introduccion y motivacion: Una amplia variedad de organismos han desarro-llado relojes biomoleculares internos con el fin de adaptarse a los cambios ciclicos del entorno. El funcionamiento de estos relojes involucra redes geneticas. El mo delado de estas redes geneticas es esencial tanto para entender los mecanismos que producen las oscilaciones como para diseiiar nuevos circuitos sinteticos en celulas. Esta tesis doctoral ha dado lugar a dos contribuciones dentro de los campos de los circuitos geneticos en particular, y biologia de sistemas y sintetica en general. La primera contribucion es un nuevo modelo de circuito genetico que muestra un comportamiento oscilatorio usando moleculas de ARN cataliticas. La segunda y principal contribucion es un nuevo modelo de circuito genetico que demuestra que una molecula represora actuando sobre el lazo de un gen auto-activado produce oscilaciones robustas. Primera contribucion: Es un nuevo modelo de oscilador genetico sintetico basado en una tipica red genetica compuesta por dos genes con dos lazos de retroa-limentacion, uno positivo y otro negativo. La novedad de este modelo es que el represor es una molecula de ARN catalftica, en lugar de una protefna o una molecula de ARN no-catalitica. Este ARN catalitico es una ribozima que actua despues de la transcription genetica uniendose y cortando moleculas de ARN mensajero (ARNm). Este reloj genetico involucra solo dos genes, un ARNm y una proteina activadora, aparte de la ribozima. Como ejemplo de funcionamiento, se han escogido valores de los parametros que producen oscilaciones con periodo circadiano (24 horas) tanto en simulaciones deterministas como estocasticas. El efecto de las fluctuaciones es-tocasticas ha sido cuantificado mediante un histograma del periodo y la función de auto-correlacion. La conclusion es que las moleculas de ARN con propiedades cataliticas pueden jugar el misnio papel que las protemas represoras, y por lo tanto, simplificar el diseno de los osciladores geneticos. Segunda y principal contribucion: Es un nuevo modelo de oscilador genetico que demuestra que un gen auto-activado junto con una simple interaction negativa puede producir oscilaciones robustas. Este modelo ha sido estudiado y validado matematicamente. El modelo esta compuesto de dos partes bien diferenciadas. La primera parte es un lazo de retroalimentacion positiva creado por una proteina que se une al promotor de su propio gen activando la transcription. La segunda parte es una interaction negativa en la que una molecula represora evita la union de la proteina con el promotor. Un estudio estocastico muestra que el sistema es robusto al ruido. Un estudio determinista muestra que la dinamica del sistema es debida principalmente a dos tipos de biomoleculas: la proteina, y el complejo formado por el represor y esta proteina. La conclusion principal de este estudio es que una simple y usual interaction negativa, tal como una degradation, un secuestro o una inhibition, actuando sobre el lazo de retroalimentacion positiva de un solo gen es una condition suficiente para producir oscilaciones robustas. Un gen es suficiente y el lazo de retroalimentacion positiva no necesita activar a un segundo gen represor, tal y como ocurre en los relojes actuales con dos genes. Esto significa que a nivel genetico un lazo de retroalimentacion negativa no es necesario de forma explicita. Ademas, este modelo no necesita reacciones cooperativas ni la formation de multimeros proteicos, al contrario que en muchos osciladores geneticos. Aplicaciones y futuras lineas de investigacion: En los liltimos anos, se han descubierto muchas moleculas de ARN con capacidad catalitica. El primer modelo de oscilador genetico propuesto en esta tesis usa ribozimas como moleculas repre¬soras. Esto podria proporcionar nuevos principios de diseno en biologia sintetica y una mejor comprension de los relojes celulares regulados por moleculas de ARN. El segundo modelo de oscilador genetico propuesto aqui involucra solo una represion actuando sobre un gen auto-activado y produce oscilaciones robustas. Sorprendente-mente, un segundo gen represor no es necesario al contrario que en los bien conocidos osciladores con dos genes. Este resultado podria ayudar a clarificar los principios de diseno de los relojes celulares naturales y constituir una nueva y eficiente he-rramienta para crear osciladores geneticos sinteticos. Algunas de las futuras lineas de investigation abiertas tras esta tesis son: (1) la validation in vivo e in vitro de ambos modelos, (2) el estudio del potential del segundo modelo como circuito base para la construction de una memoria genetica, (3) el estudio de nuevos osciladores geneticos regulados por ARN no codificante y, por ultimo, (4) el rediseno del se¬gundo modelo de oscilador genetico para su uso como biosensor capaz de detectar genes auto-activados en redes geneticas.
Resumo:
El objetivo principal de esta tesis es el desarrollo de herramientas numéricas basadas en técnicas de onda completa para el diseño asistido por ordenador (Computer-Aided Design,‘CAD’) de dispositivos de microondas. En este contexto, se desarrolla una herramienta numérica basada en el método de los elementos finitos para el diseño y análisis de antenas impresas mediante algoritmos de optimización. Esta técnica consiste en dividir el análisis de una antena en dos partes. Una parte de análisis 3D que se realiza sólo una vez en cada punto de frecuencia de la banda de funcionamiento donde se sustituye una superficie que contiene la metalización del parche por puertas artificiales. En una segunda parte se inserta entre las puertas artificiales en la estructura 3D la superficie soportando una metalización y se procede un análisis 2D para caracterizar el comportamiento de la antena. La técnica propuesta en esta tesis se puede implementar en un algoritmo de optimización para definir el perfil de la antena que permite conseguir los objetivos del diseño. Se valida experimentalmente dicha técnica empleándola en el diseño de antenas impresas de banda ancha para diferentes aplicaciones mediante la optimización del perfil de los parches. También, se desarrolla en esta tesis un procedimiento basado en el método de descomposición de dominio y el método de los elementos finitos para el diseño de dispositivos pasivos de microonda. Se utiliza este procedimiento en particular para el diseño y sintonía de filtros de microondas. En la primera etapa de su aplicación se divide la estructura que se quiere analizar en subdominios aplicando el método de descomposición de dominio, este proceso permite analizar cada segmento por separado utilizando el método de análisis adecuado dado que suele haber subdominios que se pueden analizar mediante métodos analíticos por lo que el tiempo de análisis es más reducido. Se utilizan métodos numéricos para analizar los subdominios que no se pueden analizar mediante métodos analíticos. En esta tesis, se utiliza el método de los elementos finitos para llevar a cabo el análisis. Además de la descomposición de dominio, se aplica un proceso de barrido en frecuencia para reducir los tiempos del análisis. Como método de orden reducido se utiliza la técnica de bases reducidas. Se ha utilizado este procedimiento para diseñar y sintonizar varios ejemplos de filtros con el fin de comprobar la validez de dicho procedimiento. Los resultados obtenidos demuestran la utilidad de este procedimiento y confirman su rigurosidad, precisión y eficiencia en el diseño de filtros de microondas. ABSTRACT The main objective of this thesis is the development of numerical tools based on full-wave techniques for computer-aided design ‘CAD’ of microwave devices. In this context, a numerical technique based on the finite element method ‘FEM’ for the design and analysis of printed antennas using optimization algorithms has been developed. The proposed technique consists in dividing the analysis of the antenna in two stages. In the first stage, the regions of the antenna which do not need to be modified during the CAD process are initially characterized only once from their corresponding matrix transfer function (Generalized Admittance matrix, ‘GAM’). The regions which will be modified are defined as artificial ports, precisely the regions which will contain the conducting surfaces of the printed antenna. In a second stage, the contour shape of the conducting surfaces of the printed antenna is iteratively modified in order to achieve a desired electromagnetic performance of the antenna. In this way, a new GAM of the radiating device which takes into account each printed antenna shape is computed after each iteration. The proposed technique can be implemented with a genetic algorithm to achieve the design objectives. This technique is validated experimentally and applied to the design of wideband printed antennas for different applications by optimizing the shape of the radiating device. In addition, a procedure based on the domain decomposition method and the finite element method has been developed for the design of microwave passive devices. In particular, this procedure can be applied to the design and tune of microwave filters. In the first stage of its implementation, the structure to be analyzed is divided into subdomains using the domain decomposition method; this process allows each subdomains can be analyzed separately using suitable analysis method, since there is usually subdomains that can be analyzed by analytical methods so that the time of analysis is reduced. For analyzing the subdomains that cannot be analyzed by analytical methods, we use the numerical methods. In this thesis, the FEM is used to carry out the analysis. Furthermore the decomposition of the domain, a frequency sweep process is applied to reduce analysis times. The reduced order model as the reduced basis technique is used in this procedure. This procedure is applied to the design and tune of several examples of microwave filters in order to check its validity. The obtained results allow concluding the usefulness of this procedure and confirming their thoroughness, accuracy and efficiency for the design of microwave filters.
Resumo:
In this paper, multiple regression analysis is used to model the top of descent (TOD) location of user-preferred descent trajectories computed by the flight management system (FMS) on over 1000 commercial flights into Melbourne, Australia. In addition to recording TOD, the cruise altitude, final altitude, cruise Mach, descent speed, wind, and engine type were also identified for use as the independent variables in the regression analysis. Both first-order and second-order models are considered, where cross-validation, hypothesis testing, and additional analysis are used to compare models. This identifies the models that should give the smallest errors if used to predict TOD location for new data in the future. A model that is linear in TOD altitude, final altitude, descent speed, and wind gives an estimated standard deviation of 3.9 nmi for TOD location given the trajectory parame- ters, which means about 80% of predictions would have error less than 5 nmi in absolute value. This accuracy is better than demonstrated by other ground automation predictions using kinetic models. Furthermore, this approach would enable online learning of the model. Additional data or further knowledge of algorithms is necessary to conclude definitively that no second-order terms are appropriate. Possible applications of the linear model are described, including enabling arriving aircraft to fly optimized descents computed by the FMS even in congested airspace.
Resumo:
The calibration coefficients of two commercial anemometers equipped with different rotors were studied. The rotor cups had the same conical shape, while the size and distance to the rotation axis varied.The analysis was based on the 2-cup positions analytical model, derived using perturbation methods to include second-order effects such as pressure distribution along the rotating cups and friction.Thecomparison with the experimental data indicates a nonuniformdistribution of aerodynamic forces on the rotating cups, with higher forces closer to the rotating axis. The 2-cup analytical model is proven to be accurate enough to study the effect of complex forces on cup anemometer performance.
Resumo:
La ecuación en derivadas parciales de advección difusión con reacción química es la base de los modelos de dispersión de contaminantes en la atmósfera, y los diferentes métodos numéricos empleados para su resolución han sido objeto de amplios estudios a lo largo de su desarrollo. En esta Tesis se presenta la implementación de un nuevo método conservativo para la resolución de la parte advectiva de la ecuación en derivadas parciales que modela la dispersión de contaminantes dentro del modelo mesoescalar de transporte químico CHIMERE. Este método está basado en una técnica de volúmenes finitos junto con una interpolación racional. La ventaja de este método es la conservación exacta de la masa transportada debido al empleo de la ley de conservación de masas. Para ello emplea una formulación de flujo basado en el cálculo de la integral ponderada dentro de cada celda definida para la discretización del espacio en el método de volúmenes finitos. Los resultados numéricos obtenidos en las simulaciones realizadas (implementando el modelo conservativo para la advección en el modelo CHIMERE) se han comparado con los datos observados de concentración de contaminantes registrados en la red de estaciones de seguimiento y medición distribuidas por la Península Ibérica. Los datos estadísticos de medición del error, la media normalizada y la media absoluta normalizada del error, presentan valores que están dentro de los rangos propuestos por la EPA para considerar el modelo preciso. Además, se introduce un nuevo método para resolver la parte advectivadifusiva de la ecuación en derivadas parciales que modeliza la dispersión de contaminantes en la atmósfera. Se ha empleado un método de diferencias finitas de alto orden para resolver la parte difusiva de la ecuación de transporte de contaminantes junto con el método racional conservativo para la parte advectiva en una y dos dimensiones. Los resultados obtenidos de la aplicación del método a diferentes situaciones incluyendo casos académicos y reales han sido comparados con la solución analítica de la ecuación de advección-difusión, demostrando que el nuevo método proporciona un resultado preciso para aproximar la solución. Por último, se ha desarrollado un modelo completo que contempla los fenómenos advectivo y difusivo con reacción química, usando los métodos anteriores junto con una técnica de diferenciación regresiva (BDF2). Esta técnica consiste en un método implícito multipaso de diferenciación regresiva de segundo orden, que nos permite resolver los problemas rígidos típicos de la química atmosférica, modelizados a través de sistemas de ecuaciones diferenciales ordinarias. Este método hace uso de la técnica iterativa Gauss- Seidel para obtener la solución de la parte implícita de la fórmula BDF2. El empleo de la técnica de Gauss-Seidel en lugar de otras técnicas comúnmente empleadas, como la iteración por el método de Newton, nos proporciona rapidez de cálculo y bajo consumo de memoria, ideal para obtener modelos operativos para la resolución de la cinética química atmosférica. ABSTRACT Extensive research has been performed to solve the atmospheric chemicaladvection- diffusion equation and different numerical methods have been proposed. This Thesis presents the implementation of an exactly conservative method for the advection equation in the European scale Eulerian chemistry transport model CHIMERE based on a rational interpolation and a finite volume algorithm. The advantage of the method is that the cell-integrated average is predicted via a flux formulation, thus the mass is exactly conserved. Numerical results are compared with a set of observation registered at some monitoring sites in Spain. The mean normalized bias and the mean normalized absolute error present values that are inside the range to consider an accurate model performance. In addition, it has been introduced a new method to solve the advectiondiffusion equation. It is based on a high-order accurate finite difference method to solve de diffusion equation together with a rational interpolation and a finite volume to solve the advection equation in one dimension and two dimensions. Numerical results obtained from solving several problems include academic and real atmospheric problems have been compared with the analytical solution of the advection-diffusion equation, showing that the new method give an efficient algorithm for solving such problems. Finally, a complete model has been developed to solve the atmospheric chemical-advection-diffusion equation, adding the conservative method for the advection equation, the high-order finite difference method for the diffusion equation and a second-order backward differentiation formula (BDF2) to solve the atmospheric chemical kinetics. The BDF2 is an implicit, second order multistep backward differentiation formula used to solve the stiff systems of ordinary differential equations (ODEs) from atmospheric chemistry. The Gauss-Seidel iteration is used for approximately solving the implicitly defined BDF solution, giving a faster tool than the more commonly used iterative modified Newton technique. This method implies low start-up costs and a low memory demand due to the use of Gauss-Seidel iteration.
Resumo:
The study of the response of mechanical systems to external excitations, even in the simplest cases, involves solving second-order ordinary differential equations or systems thereof. Finding the natural frequencies of a system and understanding the effect of variations of the excitation frequencies on the response of the system are essential when designing mechanisms [1] and structures [2]. However, faced with the mathematical complexity of the problem, students tend to focus on the mathematical resolution rather than on the interpretation of the results. To overcome this difficulty, once the general theoretical problem and its solution through the state space [3] have been presented, Matlab®[4] and Simulink®[5] are used to simulate specific situations. Without them, the discussion of the effect of slight variations in input variables on the outcome of the model becomes burdensome due to the excessive calculation time required. Conversely, with the help of those simulation tools, students can easily reach practical conclusions and their evaluation can be based on their interpretation of results and not on their mathematical skills
Resumo:
A mathematical model for the group combustion of pulverized coal particles was developed in a previous work. It includes the Lagrangian description of the dehumidification, devolatilization and char gasification reactions of the coal particles in the homogenized gaseous environment resulting from the three fuels, CO, H2 and volatiles, supplied by the gasification of the particles and their simultaneous group combustion by the gas phase oxidation reactions, which are considered to be very fast. This model is complemented here with an analysis of the particle dynamics, determined principally by the effects of aerodynamic drag and gravity, and its dispersion based on a stochastic model. It is also extended to include two other simpler models for the gasification of the particles: the first one for particles small enough to extinguish the surrounding diffusion flames, and a second one for particles with small ash content when the porous shell of ashes remaining after gasification of the char, non structurally stable, is disrupted. As an example of the applicability of the models, they are used in the numerical simulation of an experiment of a non-swirling pulverized coal jet with a nearly stagnant air at ambient temperature, with an initial region of interaction with a small annular methane flame. Computational algorithms for solving the different stages undergone by a coal particle during its combustion are proposed. For the partial differential equations modeling the gas phase, a second order finite element method combined with a semi-Lagrangian characteristics method are used. The results obtained with the three versions of the model are compared among them and show how the first of the simpler models fits better the experimental results.
Resumo:
La presente investigación tiene como objetivo el desarrollo de una metodología que favorezca la innovación en las empresas a través de la actividad directiva, analizando a su vez, su influencia a nivel macro, en los sistemas de innovación, en las políticas de innovación y en el capital intelectual y a nivel micro, en la innovación, en el desempeño y en el clima organizacional. Se estima importante realizar un estudio sobre este tema debido a que la innovación se considera un pilar crítico para el desarrollo social a través de la competitividad de las empresas, así como, una fuente importante de ventaja competitiva. Existe abundante literatura sobre la influencia de la innovación en la gestión empresarial y el papel que el liderazgo desempeña en términos generales. Sin embargo, la literatura presenta diversos estilos de liderazgo sin mostrar una línea consistente de interrelación entre ellos, por lo que finalmente no existe una relación sólida entre el liderazgo, la gestión empresarial y la innovación. Este hecho se debe, como se muestra en la tesis, a que la literatura analiza las organizaciones y el liderazgo desde una perspectiva sociológica u organizacional, y otra desde la perspectiva psicológica sin aportar una línea de articulación entre ambas. Es decir, la literatura analiza el comportamiento organizacional pero no su causa. A lo largo de la tesis se van desarrollando diferentes líneas de trabajo que se convierten en aportaciones empíricas y académicas. Así, una de las aportaciones de la tesis es la sustitución de la figura del líder como persona, por la de un directivo con una doble función; por un lado, la función de liderazgo cuyo objetivo es generar cambio y por el otro, la función de gestionar el día a día o desempeño. Sustituir la figura del líder por una doble funcionalidad directiva facilita la comprensión del concepto liderazgo, lo que permite a su vez, establecer estrategias para su desarrollo, haciendo una realidad el que el liderazgo puede ser aprendido. Este resultado constituye la primera aportación de la tesis. Así mismo, a través de un exhaustivo análisis de la literatura, se desarrolla una propuesta de liderazgo integrado de acuerdo con el modelo Stuart-Kotze, el cual se describe también ampliamente. Encontrar un modelo único de liderazgo supone la piedra angular para el desarrollo de la metodología. Esta propuesta de liderazgo integrado da lugar a la segunda aportación de la tesis. Del mismo modo, se realiza un estudio en profundidad de la perspectiva psicológica de las organizaciones desarrollando el constructo Miedo al Error (ME) que resulta ser un rasgo de la personalidad existente en todos los seres humanos y que presenta una influencia negativa tanto en el desempeño, como en la innovación empresarial. Este resultado permite identificar cuales son las verdaderas barreras para el ejercicio del liderazgo, señalando que la disminución del ME debe ser considerada como una competencia de la Inteligencia Emocional a ser desarrollada por los directivos. Este resultado constituye la tercera aportación de la tesis. Una vez desarrollado el modelo de gestión empresarial expuesto, se procede a su validación, analizando la relación entre los constructos que definen el modelo de gestión: el desempeño, la innovación y el ME. Para identificar las influencias o relaciones de causalidad que subyacen entre los constructos, se utilizó la técnica del modelo de ecuaciones estructurales (SEM). La población objeto de estudio estuvo constituida por 350 profesionales con responsabilidad directiva, procedentes de empresas del sector servicios repartidas por toda la geografía española. Como fuente primaria de recolección de información se utilizó el cuestionario desarrollado por Stuart-Kotze M-CPI (Momentum Continuous Performance Improvement). En primer lugar se procedió a evaluar las propiedades psicométricas del modelo de medida, llevándose a cabo un análisis factorial exploratorio (AFE) y un análisis factorial confirmatorio (AFC) de segundo orden. Los resultados obtenidos ponen de manifiesto que el constructo desempeño (D) viene determinado por dos dimensiones, (DOP), desempeño orientado hacia la planificación y (DORT), desempeño orientado hacia la realización de la tarea. Es decir, la muestra de directivos no percibe que la planificación en el día a día y la realización de la tarea estén articuladas. Posteriormente se procede a realizar el contraste del modelo a través del método de ecuaciones estructurales. Los resultados muestran que la relación de influencia de la dimensión DOP no es significativa, por lo que el constructo D queda representado únicamente por la dimensión DORT. Los resultados de la investigación proporcionan conclusiones e hipótesis para futuras investigaciones. Si bien la muestra de directivos realiza un plan estratégico, éste no se tiene en cuenta en el día a día. Este hecho podría explicar el alto grado de administración por crisis tan frecuente en la empresa española. A su vez, el ME presenta una influencia negativa en la innovación, lo que concuerda con la literatura. Al respecto, considerar el ME como un rasgo de la personalidad, presente tanto en directivos como en colaboradores, facilita la comprensión de las barreras de la organización hacia la comunicación abierta a la vez, que una dirección de trabajo para la mejora de la capacidad innovadora de la organización. Por último, los resultados establecen la existencia de una relación causal entre el desempeño diario y la innovación. Con respecto a este segundo resultado y analizando los comportamientos que identifican el constructo D surgen también varias conclusiones e hipótesis para futuras investigaciones. Los resultados ponen de manifiesto que la muestra de directivos genera iniciativas de cambio con la finalidad de que el trabajo diario salga adelante según los estándares de calidad definidos. Sin embargo, estas iniciativas sólo proceden de los directivos, sin participación alguna de los colaboradores, los cuales son sólo responsables de la implementación produciéndose la consiguiente desmotivación y pérdida de oportunidades. Esta conclusión pone de manifiesto que la innovación de las empresas de la muestra sucede para garantizar la eficiencia de los procesos existentes, pero en ningún caso surge de la iniciativa de buscar una mejor eficacia empresarial. Este hecho plantea un origen doble de la innovación en los procesos. La innovación proactiva que buscaría la mejora de la eficacia de la organización y una innovación de carácter reactiva que buscaría la salvaguarda de la eficiencia. Quizás sea esta la causa del gap existente entre la innovación en España y la innovación de los países que ocupan los primeros puestos en el ranking de producción de innovación lo que constituye un importante punto de partida para una investigación futura. ABSTRACT This research aims to develop a methodology that supports innovation in companies through the managers’ activity, analysing in turn its influence at the macro level: innovation systems, innovation policies and Intellectual capital and at the micro level: innovation itself, performance and organizational climate. It is considered important to conduct a study on this subject due to the fact that innovation is considered a critical pillar for the development and future of the enterprise and an important source of competitive advantage. There is abundant literature about the influence of innovation in business management and the role that leadership plays in general terms. However, the literature presents various styles of leadership without showing a consistent relationship among them, so finally there is not a strong relationship among leadership, business management and innovation. As shown in the thesis, this is due to the fact that the literature analyses organizations and leadership from a sociological or organizational perspective and from a psychological perspective, without providing a hinge line between the two. That is, the existing literature discusses organizational behaviour but not its cause. Throughout the thesis, different lines of work that become empirical and academic contributions have been developed. Thus, one of the contributions of the thesis is replacing the figure of the leader as a person, by a manager with a dual function. Firstly, we have the leadership role which aims to generate change and, on the other hand, the function to manage the day-to-day task or performance. Replacing the figure of the leader by a dual managerial functionality facilitates the understanding of the leadership concept, allowing in turn, to establish development strategies and making true that leadership can be learned. This outcome is the first contribution of the thesis. Likewise, through a comprehensive literature review, an integrated leadership proposal is developed, according to the Kotze model, which is also described widely. Finding a specific leadership model represents the cornerstone for the development of the methodology. This integrated leadership proposal leads to the second contribution of the thesis. Similarly, an in-depth study was conducted about the psychological perspective of the organizations disclosing the construct Fear of Failure. This construct is a personality trait that exists in all human beings and has a negative influence on both performance and business innovation. This outcome allows identifying which are the real barriers to the exercise of leadership, noting that the decrease in fear of failure must be considered as an Emotional Intelligence competence to be developed by managers. This outcome represents the third contribution of the thesis. Once a business management model has been developed, we proceed to its validation by analysing the relationship among the model constructs: management, innovation and fear of failure. To identify the influence or causal relationships underlying the constructs, a structural equation model (SEM) technique was used. The study population consisted of 350 professionals with managerial responsibility, from companies in the services sector scattered throughout the Spanish geography. As a primary source for gathering information a questionnaire developed by Kotze M-CPI (Continuous Performance Improvement Momentum) was used. First we proceeded to evaluate the psychometric properties of the measurement model, carrying out an exploratory factorial analysis (EFA) and a confirmatory factorial analysis (CFA) of second order. The results show that the performance construct D is determined by two-dimensions (DOP: performance oriented to planning) and (DORT: aiming at the realization of the task). That is, the sample of managers does not perceive that planning and the daily task are articulated. Then, we proceeded to make the contrast of the model through a structural equation model SEM. The results show that the influence of the DOP dimension is not significant, so that only the DORT dimension finally represents the construct D. The research outcomes provide conclusions and hypotheses for future research. Although the managers in the sample develop a strategic plan, it seems that managers do not take it into account in their daily tasks. This could explain the high degree of crisis management so prevalent in the Spanish companies. In turn, the fear of failure has a negative influence on innovation, consistent with the literature. In this regard, the fear of failure is considered as a personality trait, present in both managers and employees, which enables the understanding of organizational barriers to open communication and provides a direction to improve the organization’s innovative capacity as well. Finally, the results establish a causal relationship between daily performance and innovation. Regarding this second outcome and analysing the behaviours that identify the construct D, several conclusions and hypotheses for future research arise as well. The results show that the managers in the sample show initiatives of change in order to make everyday work go ahead, according to defined quality standards. However, these initiatives only come from managers without any participation of coworkers, which are only responsible for the implementation, and this produces discouragement and loss of opportunities. This finding shows that the innovation by the companies in the sample happens to guarantee the efficiency of existing processes, but do not arise from an initiative that seeks better business efficacy. This raises two sources of innovation in processes. The first source would be a proactive innovation that would seek improved organizational efficacy. The second one is a reactive innovation that would seek to safeguard efficiency. Perhaps this is the cause of the existing gap between the innovation activity in Spain and the innovation activity in those countries that occupy the top positions in the ranking of innovation outcomes. The Spanish companies seek process efficiency and the top innovators business efficacy. This is an important starting point for future research.
Resumo:
Los sistemas transaccionales tales como los programas informáticos para la planificación de recursos empresariales (ERP software) se han implementado ampliamente mientras que los sistemas analíticos para la gestión de la cadena de suministro (SCM software) no han tenido el éxito deseado por la industria de tecnología de información (TI). Aunque se documentan beneficios importantes derivados de las implantaciones de SCM software, las empresas industriales son reacias a invertir en este tipo de sistemas. Por una parte esto es debido a la falta de métodos que son capaces de detectar los beneficios por emplear esos sistemas, y por otra parte porque el coste asociado no está identificado, detallado y cuantificado suficientemente. Los esquemas de coordinación basados únicamente en sistemas ERP son alternativas válidas en la práctica industrial siempre que la relación coste-beneficio esta favorable. Por lo tanto, la evaluación de formas organizativas teniendo en cuenta explícitamente el coste debido a procesos administrativos, en particular por ciclos iterativos, es de gran interés para la toma de decisiones en el ámbito de inversiones en TI. Con el fin de cerrar la brecha, el propósito de esta investigación es proporcionar métodos de evaluación que permitan la comparación de diferentes formas de organización y niveles de soporte por sistemas informáticos. La tesis proporciona una amplia introducción, analizando los retos a los que se enfrenta la industria. Concluye con las necesidades de la industria de SCM software: unas herramientas que facilitan la evaluación integral de diferentes propuestas de organización. A continuación, la terminología clave se detalla centrándose en la teoría de la organización, las peculiaridades de inversión en TI y la tipología de software de gestión de la cadena de suministro. La revisión de la literatura clasifica las contribuciones recientes sobre la gestión de la cadena de suministro, tratando ambos conceptos, el diseño de la organización y su soporte por las TI. La clasificación incluye criterios relacionados con la metodología de la investigación y su contenido. Los estudios empíricos en el ámbito de la administración de empresas se centran en tipologías de redes industriales. Nuevos algoritmos de planificación y esquemas de coordinación innovadoras se desarrollan principalmente en el campo de la investigación de operaciones con el fin de proponer nuevas funciones de software. Artículos procedentes del área de la gestión de la producción se centran en el análisis de coste y beneficio de las implantaciones de sistemas. La revisión de la literatura revela que el éxito de las TI para la coordinación de redes industriales depende en gran medida de características de tres dimensiones: la configuración de la red industrial, los esquemas de coordinación y las funcionalidades del software. La literatura disponible está enfocada sobre todo en los beneficios de las implantaciones de SCM software. Sin embargo, la coordinación de la cadena de suministro, basándose en el sistema ERP, sigue siendo la práctica industrial generalizada, pero el coste de coordinación asociado no ha sido abordado por los investigadores. Los fundamentos de diseño organizativo eficiente se explican en detalle en la medida necesaria para la comprensión de la síntesis de las diferentes formas de organización. Se han generado varios esquemas de coordinación variando los siguientes parámetros de diseño: la estructura organizativa, los mecanismos de coordinación y el soporte por TI. Las diferentes propuestas de organización desarrolladas son evaluadas por un método heurístico y otro basado en la simulación por eventos discretos. Para ambos métodos, se tienen en cuenta los principios de la teoría de la organización. La falta de rendimiento empresarial se debe a las dependencias entre actividades que no se gestionan adecuadamente. Dentro del método heurístico, se clasifican las dependencias y se mide su intensidad basándose en factores contextuales. A continuación, se valora la idoneidad de cada elemento de diseño organizativo para cada dependencia específica. Por último, cada forma de organización se evalúa basándose en la contribución de los elementos de diseño tanto al beneficio como al coste. El beneficio de coordinación se refiere a la mejora en el rendimiento logístico - este concepto es el objeto central en la mayoría de modelos de evaluación de la gestión de la cadena de suministro. Por el contrario, el coste de coordinación que se debe incurrir para lograr beneficios no se suele considerar en detalle. Procesos iterativos son costosos si se ejecutan manualmente. Este es el caso cuando SCM software no está implementada y el sistema ERP es el único instrumento de coordinación disponible. El modelo heurístico proporciona un procedimiento simplificado para la clasificación sistemática de las dependencias, la cuantificación de los factores de influencia y la identificación de configuraciones que indican el uso de formas organizativas y de soporte de TI más o menos complejas. La simulación de eventos discretos se aplica en el segundo modelo de evaluación utilizando el paquete de software ‘Plant Simulation’. Con respecto al rendimiento logístico, por un lado se mide el coste de fabricación, de inventario y de transporte y las penalizaciones por pérdida de ventas. Por otro lado, se cuantifica explícitamente el coste de la coordinación teniendo en cuenta los ciclos de coordinación iterativos. El método se aplica a una configuración de cadena de suministro ejemplar considerando diversos parámetros. Los resultados de la simulación confirman que, en la mayoría de los casos, el beneficio aumenta cuando se intensifica la coordinación. Sin embargo, en ciertas situaciones en las que se aplican ciclos de planificación manuales e iterativos el coste de coordinación adicional no siempre conduce a mejor rendimiento logístico. Estos resultados inesperados no se pueden atribuir a ningún parámetro particular. La investigación confirma la gran importancia de nuevas dimensiones hasta ahora ignoradas en la evaluación de propuestas organizativas y herramientas de TI. A través del método heurístico se puede comparar de forma rápida, pero sólo aproximada, la eficiencia de diferentes formas de organización. Por el contrario, el método de simulación es más complejo pero da resultados más detallados, teniendo en cuenta parámetros específicos del contexto del caso concreto y del diseño organizativo. ABSTRACT Transactional systems such as Enterprise Resource Planning (ERP) systems have been implemented widely while analytical software like Supply Chain Management (SCM) add-ons are adopted less by manufacturing companies. Although significant benefits are reported stemming from SCM software implementations, companies are reluctant to invest in such systems. On the one hand this is due to the lack of methods that are able to detect benefits from the use of SCM software and on the other hand associated costs are not identified, detailed and quantified sufficiently. Coordination schemes based only on ERP systems are valid alternatives in industrial practice because significant investment in IT can be avoided. Therefore, the evaluation of these coordination procedures, in particular the cost due to iterations, is of high managerial interest and corresponding methods are comprehensive tools for strategic IT decision making. The purpose of this research is to provide evaluation methods that allow the comparison of different organizational forms and software support levels. The research begins with a comprehensive introduction dealing with the business environment that industrial networks are facing and concludes highlighting the challenges for the supply chain software industry. Afterwards, the central terminology is addressed, focusing on organization theory, IT investment peculiarities and supply chain management software typology. The literature review classifies recent supply chain management research referring to organizational design and its software support. The classification encompasses criteria related to research methodology and content. Empirical studies from management science focus on network types and organizational fit. Novel planning algorithms and innovative coordination schemes are developed mostly in the field of operations research in order to propose new software features. Operations and production management researchers realize cost-benefit analysis of IT software implementations. The literature review reveals that the success of software solutions for network coordination depends strongly on the fit of three dimensions: network configuration, coordination scheme and software functionality. Reviewed literature is mostly centered on the benefits of SCM software implementations. However, ERP system based supply chain coordination is still widespread industrial practice but the associated coordination cost has not been addressed by researchers. Fundamentals of efficient organizational design are explained in detail as far as required for the understanding of the synthesis of different organizational forms. Several coordination schemes have been shaped through the variation of the following design parameters: organizational structuring, coordination mechanisms and software support. The different organizational proposals are evaluated using a heuristic approach and a simulation-based method. For both cases, the principles of organization theory are respected. A lack of performance is due to dependencies between activities which are not managed properly. Therefore, within the heuristic method, dependencies are classified and their intensity is measured based on contextual factors. Afterwards the suitability of each organizational design element for the management of a specific dependency is determined. Finally, each organizational form is evaluated based on the contribution of the sum of design elements to coordination benefit and to coordination cost. Coordination benefit refers to improvement in logistic performance – this is the core concept of most supply chain evaluation models. Unfortunately, coordination cost which must be incurred to achieve benefits is usually not considered in detail. Iterative processes are costly when manually executed. This is the case when SCM software is not implemented and the ERP system is the only available coordination instrument. The heuristic model provides a simplified procedure for the classification of dependencies, quantification of influence factors and systematic search for adequate organizational forms and IT support. Discrete event simulation is applied in the second evaluation model using the software package ‘Plant Simulation’. On the one hand logistic performance is measured by manufacturing, inventory and transportation cost and penalties for lost sales. On the other hand coordination cost is explicitly considered taking into account iterative coordination cycles. The method is applied to an exemplary supply chain configuration considering various parameter settings. The simulation results confirm that, in most cases, benefit increases when coordination is intensified. However, in some situations when manual, iterative planning cycles are applied, additional coordination cost does not always lead to improved logistic performance. These unexpected results cannot be attributed to any particular parameter. The research confirms the great importance of up to now disregarded dimensions when evaluating SCM concepts and IT tools. The heuristic method provides a quick, but only approximate comparison of coordination efficiency for different organizational forms. In contrast, the more complex simulation method delivers detailed results taking into consideration specific parameter settings of network context and organizational design.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
In this work the thermal analysis of a small satellite orbiting around the Earth has been approached by direct integration of the heat balance equations of a two-node reduced model, obtaining a linearized second order ODE problem, similar in form to the classical case of the forced vibration of a damped system. As the thermal loads (solar radiation, albedo, etc.) are harmonic, the problem is solved by means of Fourier analysis methods. Research on that field can be directly applied to the analysis of thermal problems and the results obtained are satisfactory. Working on the frequency domain streamlines the analysis, simplifies the study and facilitates the experimental testing. The transfer functions are obtained for the two-node case but the study can be extended to an n-node model.