21 resultados para Nodal Zeros
em Universidad Politécnica de Madrid
Resumo:
Within the framework of the Collaborative Project for a European Sodium Fast Reactor, the reactor physics group at UPM is working on the extension of its in-house multi-scale advanced deterministic code COBAYA3 to Sodium Fast Reactors (SFR). COBAYA3 is a 3D multigroup neutron kinetics diffusion code that can be used either as a pin-by-pin code or as a stand-alone nodal code by using the analytic nodal diffusion solver ANDES. It is coupled with thermalhydraulics codes such as COBRA-TF and FLICA, allowing transient analysis of LWR at both fine-mesh and coarse-mesh scales. In order to enable also 3D pin-by-pin and nodal coupled NK-TH simulations of SFR, different developments are in progress. This paper presents the first steps towards the application of COBAYA3 to this type of reactors. ANDES solver, already extended to triangular-Z geometry, has been applied to fast reactor steady-state calculations. The required cross section libraries were generated with ERANOS code for several configurations. The limitations encountered in the application of the Analytic Coarse Mesh Finite Difference (ACMFD) method –implemented inside ANDES– to fast reactors are presented and the sensitivity of the method when using a high number of energy groups is studied. ANDES performance is assessed by comparison with the results provided by ERANOS, using a mini-core model in 33 energy groups. Furthermore, a benchmark from the NEA for a small 3D FBR in hexagonal-Z geometry and 4 energy groups is also employed to verify the behavior of the code with few energy groups.
Resumo:
The classical Kramer sampling theorem, which provides a method for obtaining orthogonal sampling formulas, can be formulated in a more general nonorthogonal setting. In this setting, a challenging problem is to characterize the situations when the obtained nonorthogonal sampling formulas can be expressed as Lagrange-type interpolation series. In this article a necessary and sufficient condition is given in terms of the zero removing property. Roughly speaking, this property concerns the stability of the sampled functions on removing a finite number of their zeros.
Resumo:
Interface discontinuity factors based on the Generalized Equivalence Theory are commonly used in nodal homogenized diffusion calculations so that diffusion average values approximate heterogeneous higher order solutions. In this paper, an additional form of interface correction factors is presented in the frame of the Analytic Coarse Mesh Finite Difference Method (ACMFD), based on a correction of the modal fluxes instead of the physical fluxes. In the ACMFD formulation, implemented in COBAYA3 code, the coupled multigroup diffusion equations inside a homogenized region are reduced to a set of uncoupled modal equations through diagonalization of the multigroup diffusion matrix. Then, physical fluxes are transformed into modal fluxes in the eigenspace of the diffusion matrix. It is possible to introduce interface flux discontinuity jumps as the difference of heterogeneous and homogeneous modal fluxes instead of introducing interface discontinuity factors as the ratio of heterogeneous and homogeneous physical fluxes. The formulation in the modal space has been implemented in COBAYA3 code and assessed by comparison with solutions using classical interface discontinuity factors in the physical space
Resumo:
Más allá de la alta velocidad, y debido en parte a su éxito, en los últimos años han aparecido trenes de pasajeros capaces de circular a velocidades más elevadas y ser más eficientes (como, por ejemplo, los de tipo automotor). Además, algunos de los antiguos modelos recogidos en las normativas parecen no cubrir determinados casos, lo que ha llevado a la reciente modificación de éstas. A todo esto se le añade la necesidad de crear una normativa común europea que establezca las bases para lograr la interoperabilidad. Con este proyecto se pretende estudiar los efectos dinámicos en puentes de estas nuevas tipologías de trenes, haciendo especial hincapié en los trenes automotores. El trabajo se centra principalmente en puentes isostáticos de luces cortas, por ser éstos especialmente sensibles a este tipo de acciones. El parámetro crítico, en estos casos, son las aceleraciones en centro de vano. Se realizara el cálculo dinámico por diferentes métodos: elementos finitos, análisis modal, así como programas de integración numérica en Matlab de los modos de vibración, analizando y comparando la efectividad de estos. Las diferencias entre la consideración o no de la distribución de las cargas transmitidas al tablero de la estructura de la vía a serán discutidas en el proyecto, así como la interacción dinámica entre estructura y vehículo. Finalmente se aplicarán los conocimientos obtenidos a varios casos reales de puentes incluidos en la red ferroviaria española, como por ejemplo, el viaducto de alta velocidad del Jalón. Los resultados de estos estudios tienen una repercusión en diversas normativas europeas actualmente en revisión y en las cuales está involucrado el Grupo de Mecánica Computacional: EN15528 European Committee for Standarization (2008), EN1991-2 European Committee for Standarization (2003) y las Especificaciones Técnicas de Interoperabilidad Ferroviaria (TSI).
Resumo:
A three node, displacement based, acoustic element is developed. In order to avoid spurious rotational modes, a higher order stiffness is introduced. The higher order stiffness is developed from an incompatible strain field which computes element volume changes under nodal rotational displacements fields. The higher order strain satisfies the IET requirements, non affecting convergence. The higher order stiffness is modulated, element by element, with a factor. Thus, the displacement based formulation is capable of placing the spurious rotational modes over the range of physical compressional modes that can be accurately captured by the mesh.
Resumo:
La importancia de la seguridad en la aplicación de la tecnología nuclear impregna todas las tareas asociadas a la utilización de esta fuente de energía, comenzando por la fase de diseño, explotación y posterior desmantelamiento o gestión de residuos. En todos estos pasos, las herramientas de simulación computacional juegan un papel esencial como guía para el diseño, apoyo durante la operación o predicción de la evolución isotópica de los materiales del reactor. Las constantes mejoras en cuanto a recursos computacionales desde mediados del siglo XX hasta este momento así como los avances en los métodos de cálculo utilizados, permiten tratar la complejidad de estas situaciones con un detalle cada vez mayor, que en ocasiones anteriores fue simplemente descartado por falta de capacidad de cálculo o herramientas adecuadas. El presente trabajo se centra en el desarrollo de un método de cálculo neutrónico para reactores de agua ligera basado en teoría de difusión corregida con un nivel de detalle hasta la barra de combustible, considerando un número de grupos de energía mayor que los tradicionales rápido y térmico, y modelando la geometría tridimensional del núcleo del reactor. La capacidad de simular tanto situaciones estacionarias con posible búsqueda de criticidad, como la evolución durante transitorios del flujo neutrónico ha sido incluida, junto con un algoritmo de cálculo de paso de tiempo adaptativo para mejorar el rendimiento de las simulaciones. Se ha llevado a cabo un estudio de optimización de los métodos de cálculo utilizados para resolver la ecuación de difusión, tanto en el lazo de iteración de fuente como en los métodos de resolución de sistemas lineales empleados en las iteraciones internas. Por otra parte, la cantidad de memoria y tiempo de computación necesarios para resolver problemas de núcleo completo en malla fina obliga a introducir un método de paralelización en el cálculo; habiéndose aplicado una descomposición en subdominios basada en el método alternante de Schwarz acompañada de una aceleración nodal. La aproximación de difusión debe ser corregida si se desea reproducir los valores con una precisión cercana a la obtenida con la ecuación de transporte. Los factores de discontinuidad de la interfase utilizados para esta corrección no pueden en la práctica ser calculados y almacenados para cada posible configuración de una barra de combustible de composición determinada en el interior del reactor. Por esta razón, se ha estudiado una parametrización del factor de discontinuidad según la vecindad que permitiría tratar este factor como una sección eficaz más, parametrizada en función de valores significativos del entorno de la barra de material. Por otro lado, también se ha contemplado el acoplamiento con códigos termohidráulicos, lo que permite realizar simulaciones multifísica y producir resultados más realistas. Teniendo en cuenta la demanda creciente de la industria nuclear para que los resultados realistas sean suministrados junto con sus márgenes de confianza, se ha desarrollado la posibilidad de obtener las sensibilidades de los resultados mediante el cálculo del flujo adjunto, para posteriormente propagar las incertidumbres de las secciones eficaces a los cálculos de núcleo completo. Todo este trabajo se ha integrado en el código COBAYA3 que forma parte de la plataforma de códigos desarrollada en el proyecto europeo NURESIM del 6º Programa Marco. Los desarrollos efectuados han sido verificados en cuanto a su capacidad para modelar el problema a tratar; y la implementación realizada en el código ha sido validada numéricamente frente a los datos del benchmark de transitorio accidental en un reactor PWR con combustible UO2/MOX de la Agencia de Energía Nuclear de la OCDE, así como frente a otros benchmarks de LWR definidos en los proyectos europeos NURESIM y NURISP.
Resumo:
El objetivo del proyecto ha sido desarrollar una funcionalización de las secciones eficaces nodales en multigrupos para códigos tridimensionales de núcleos de agua a presión. Se ha estudiado la dependencia de las secciones eficaces con las condiciones locales de operación: temperatura del combustible, temperatura del moderador, densidad del moderador y concentración de boro. Y se ha desarrollado un modelo que permite determinar las secciones eficaces en función de dichas variables operacionales. De esta forma, pueden reproducirse en el cálculo nodal 3D valores precisos de las secciones eficaces para la resolución de la ecuación de difusión en multigrupos. Se consigue así evitar el uso de ingentes librerías de secciones eficaces pregeneradas para todas las posibles combinaciones de condiciones de operación. Este estudio se ha realizado a nivel de elemento combustible, analizando las diferencias y similitudes con la funcionalización requerida a nivel de celda, estudiándose igualmente condensaciones en distintos números de grupos de energía para obtener una librería de tamaño óptimo. Las actividades desarrolladas han sido: i) utilización de un código de transporte determinista para obtener secciones eficaces homogeneizadas a nivel de elemento; ii) desarrollo de un procedimiento para la generación de todos los parámetros al cambiar las condiciones de operación y análisis de la variación de las secciones eficaces al cambiar dichas condiciones, estudiando los posibles efectos cruzados; iii) una vez finalizado el estudio de la funcionalización de los parámetros con las variables locales, se ha valorado esta librería mediante cálculos con el código de difusión 3D COBAYA3.
Resumo:
A mathematical model for finite strain elastoplastic consolidation of fully saturated soil media is implemented into a finite element program. The algorithmic treatment of finite strain elastoplasticity for the solid phase is based on multiplicative decomposition and is coupled with the algorithm for fluid flow via the Kirchhoff pore water pressure. A two-field mixed finite element formulation is employed in which the nodal solid displacements and the nodal pore water pressures are coupled via the linear momentum and mass balance equations. The constitutive model for the solid phase is represented by modified Cam—Clay theory formulated in the Kirchhoff principal stress space, and return mapping is carried out in the strain space defined by the invariants of the elastic logarithmic principal stretches. The constitutive model for fluid flow is represented by a generalized Darcy's law formulated with respect to the current configuration. The finite element model is fully amenable to exact linearization. Numerical examples with and without finite deformation effects are presented to demonstrate the impact of geometric nonlinearity on the predicted responses. The paper concludes with an assessment of the performance of the finite element consolidation model with respect to accuracy and numerical stability.
Resumo:
Desde hace mucho tiempo, el hombre se ha preocupado por los fenómenos que rigen el movimiento humano. Así Aristóteles (384-322 a. J.C.) poseía conocimientos notables sobre el centro de gravedad, las leyes del movimiento y de las palancas, siendo el primero en describir el complejo proceso de la marcha. A este sabio le siguieron muchos otros: Arquímedes (287-212 a. J.C.)- Ga leno (131-201 a.J.C.) Leonardo Da Vinci (1452-1519), que describió la mecánica del cuerpo en posición erecta, en la marcha y en el salto. Galileo Galilei (1564-1643) proporcionó empuje al estudio de los fenómenos mecánicos en términos matemáticos, creando las bases para la biomecánica. Alfonso Borelli (1608-1679), considerado por algunos autores como el padre de la moderna biomecánica. Aseguraba que los músculos funcionan de acuerdo con principios matemáticos. Nicolas Andry (1658-1742), creador de la ciencia ortopédica. Isaac Newton, que estableció las bases de la dinámica moderna con la enunciación de sus leyes mecánicas todavía hoy vigentes. E.J. Marey (1830-1904), afirmaba que el movimiento es la más importante de las funciones humanas, y describió métodos fotográficos para la investigación biológica. c.w. Braune (1831-1892), y Otto Fischer (1861-1917), describieron un método experimental para determinar el centro de gravedad. Harold Edgerton, inventor del estroboscopio electrónico de aplicación en el análisis fotográfico del movimiento. Gideon Ariel, una de las máximas autoridades en la biomecánica del deporte actual. ••••••• oooOooo ••••••• En lo que respecta al ámbito deportivo, en los últimos años estamos asistiendo a una gran mejora del rendimiento. Esto es debido en gran parte a un mayor apoyo científico en el proceso de entrenamiento, tanto en lo que se refiere a los métodos para desarrollar la condición física, como en lo concerniente a la perfección de la técnica deportiva, es decir, el aprovechamiento más eficaz de las leyes mecánicas que intervienen en el movimiento deportivo. Según P. Rasch y R. Burke, la biomecánica se ocupa de la investigación del movimiento humano por medio de los conceptos de la física clásica y las disciplinas afines en el arte práctico de la ingeniería. Junto con la anatomía, biofísica, bioquímica, fisiología, psicología y cibernética, y estrechamente relacionada con ellas, la biomecánica, conforma las bases de la metodología deportiva. (Hochmuth) Entre los objetivos específicos de la biomecánica está la investigación dirigida a encontrar una técnica deportiva más eficaz. Actualmente, el perfeccionamiento de la técnica se realiza cada vez más apoyándose en los trabajos de análisis biomecánico. Efectivamente, esto tiene su razón de ser, pues hay detalles en el curso del ~~ movimiento que escapan a la simple observación visual por parte del entrenador. Entre dos lanzamientos de distinta longitud, en muchas ocasiones no se pueden percibir ninguna o como mucho sólo pequeñas diferencias. De ahí la necesidad de las investigaciones basadas en el análisis biomecánico, de cuyos resultados obtendrá el entrenador la información que precisa para realizar las modificaciones oportunas en cuanto a la técnica deportiva empleada por su atleta se refiere. Para el análisis biomecánico se considera el cuerpo humano como un conjunto de segmentos que forman un sistema de eslabones sometido a las leyes físicas. Estos segmentos son: la cabeza, el tronco, los brazos, los antebrazos, las manos, los muslos, las piernas y los pies. A través de estos segmentos y articulaciones se transmiten las aceleraciones y desaceleraciones para alcanzar la velocidad deseada en las porciones terminales y en el sistema propioceptivo que tiene su centro en el cerebro. De todo esto podemos deducir la práctica imposibilidad de descubrir un error en el curso del movimiento por la sola observación visual del entrenador por experto que este sea (Zanon). El aspecto biológico de la biomecánica no se conoce tanto como el aspecto mecánico, ya que este campo es mucho más complejo y se necesitan aparatos de medición muy precisos. Entre los objetivos que me he planteado al efectuar este trabajo están los siguientes: - Análisis biomecánico de uno de los mejores lanzadores de martillo de España. - Qué problemas surgen en el análisis biomecánico tridimensional. Cómo llevar a cabo este tipo de investigación con un material elemental, ya que no disponemos de otro. Ofrecer al técnico deportivo los procedimientos matemáticos del cálculo necesarios. En definitiva ofrecer una pequeña ayuda al entrenador, en su búsqueda de soluciones para el perfeccionamiento de la técnica deportiva.
Resumo:
El futuro de la energía nuclear de fisión dependerá, entre otros factores, de la capacidad que las nuevas tecnologías demuestren para solventar los principales retos a largo plazo que se plantean. Los principales retos se pueden resumir en los siguientes aspectos: la capacidad de proporcionar una solución final, segura y fiable a los residuos radiactivos; así como dar solución a la limitación de recursos naturales necesarios para alimentar los reactores nucleares; y por último, una mejora robusta en la seguridad de las centrales que en definitiva evite cualquier daño potencial tanto en la población como en el medio ambiente como consecuencia de cualquier escenario imaginable o más allá de lo imaginable. Siguiendo estas motivaciones, la Generación IV de reactores nucleares surge con el compromiso de proporcionar electricidad de forma sostenible, segura, económica y evitando la proliferación de material fisible. Entre los sistemas conceptuales que se consideran para la Gen IV, los reactores rápidos destacan por su capacidad potencial de transmutar actínidos a la vez que permiten una utilización óptima de los recursos naturales. Entre los refrigerantes que se plantean, el sodio parece una de las soluciones más prometedoras. Como consecuencia, esta tesis surgió dentro del marco del proyecto europeo CP-ESFR con el principal objetivo de evaluar la física de núcleo y seguridad de los reactores rápidos refrigerados por sodio, al tiempo que se desarrollaron herramientas apropiadas para dichos análisis. Efectivamente, en una primera parte de la tesis, se abarca el estudio de la física del núcleo de un reactor rápido representativo, incluyendo el análisis detallado de la capacidad de transmutar actínidos minoritarios. Como resultado de dichos análisis, se publicó un artículo en la revista Annals of Nuclear Energy [96]. Por otra parte, a través de un análisis de un hipotético escenario nuclear español, se evalúo la disponibilidad de recursos naturales necesarios en el caso particular de España para alimentar una flota específica de reactores rápidos, siguiendo varios escenarios de demanda, y teniendo en cuenta la capacidad de reproducción de plutonio que tienen estos sistemas. Como resultado de este trabajo también surgió una publicación en otra revista científica de prestigio internacional como es Energy Conversion and Management [97]. Con objeto de realizar esos y otros análisis, se desarrollaron diversos modelos del núcleo del ESFR siguiendo varias configuraciones, y para diferentes códigos. Por otro lado, con objeto de poder realizar análisis de seguridad de reactores rápidos, son necesarias herramientas multidimensionales de alta fidelidad específicas para reactores rápidos. Dichas herramientas deben integrar fenómenos relacionados con la neutrónica y con la termo-hidráulica, entre otros, mediante una aproximación multi-física. Siguiendo este objetivo, se evalúo el código de difusión neutrónica ANDES para su aplicación a reactores rápidos. ANDES es un código de resolución nodal que se encuentra implementado dentro del sistema COBAYA3 y está basado en el método ACMFD. Por lo tanto, el método ACMFD fue sometido a una revisión en profundidad para evaluar su aptitud para la aplicación a reactores rápidos. Durante ese proceso, se identificaron determinadas limitaciones que se discutirán a lo largo de este trabajo, junto con los desarrollos que se han elaborado e implementado para la resolución de dichas dificultades. Por otra parte, se desarrolló satisfactoriamente el acomplamiento del código neutrónico ANDES con un código termo-hidráulico de subcanales llamado SUBCHANFLOW, desarrollado recientemente en el KIT. Como conclusión de esta parte, todos los desarrollos implementados son evaluados y verificados. En paralelo con esos desarrollos, se calcularon para el núcleo del ESFR las secciones eficaces en multigrupos homogeneizadas a nivel nodal, así como otros parámetros neutrónicos, mediante los códigos ERANOS, primero, y SERPENT, después. Dichos parámetros se utilizaron más adelante para realizar cálculos estacionarios con ANDES. Además, como consecuencia de la contribución de la UPM al paquete de seguridad del proyecto CP-ESFR, se calcularon mediante el código SERPENT los parámetros de cinética puntual que se necesitan introducir en los típicos códigos termo-hidráulicos de planta, para estudios de seguridad. En concreto, dichos parámetros sirvieron para el análisis del impacto que tienen los actínidos minoritarios en el comportamiento de transitorios. Concluyendo, la tesis presenta una aproximación sistemática y multidisciplinar aplicada al análisis de seguridad y comportamiento neutrónico de los reactores rápidos de sodio de la Gen-IV, usando herramientas de cálculo existentes y recién desarrolladas ad' hoc para tal aplicación. Se ha empleado una cantidad importante de tiempo en identificar limitaciones de los métodos nodales analíticos en su aplicación en multigrupos a reactores rápidos, y se proponen interesantes soluciones para abordarlas. ABSTRACT The future of nuclear reactors will depend, among other aspects, on the capability to solve the long-term challenges linked to this technology. These are the capability to provide a definite, safe and reliable solution to the nuclear wastes; the limitation of natural resources, needed to fuel the reactors; and last but not least, the improved safety, which would avoid any potential damage on the public and or environment as a consequence of any imaginable and beyond imaginable circumstance. Following these motivations, the IV Generation of nuclear reactors arises, with the aim to provide sustainable, safe, economic and proliferationresistant electricity. Among the systems considered for the Gen IV, fast reactors have a representative role thanks to their potential capacity to transmute actinides together with the optimal usage of natural resources, being the sodium fast reactors the most promising concept. As a consequence, this thesis was born in the framework of the CP-ESFR project with the generic aim of evaluating the core physics and safety of sodium fast reactors, as well as the development of the approppriated tools to perform such analyses. Indeed, in a first part of this thesis work, the main core physics of the representative sodium fast reactor are assessed, including a detailed analysis of the capability to transmute minor actinides. A part of the results obtained have been published in Annals of Nuclear Energy [96]. Moreover, by means of the analysis of a hypothetical Spanish nuclear scenario, the availability of natural resources required to deploy an specific fleet of fast reactor is assessed, taking into account the breeding properties of such systems. This work also led to a publication in Energy Conversion and Management [97]. In order to perform those and other analyses, several models of the ESFR core were created for different codes. On the other hand, in order to perform safety studies of sodium fast reactors, high fidelity multidimensional analysis tools for sodium fast reactors are required. Such tools should integrate neutronic and thermal-hydraulic phenomena in a multi-physics approach. Following this motivation, the neutron diffusion code ANDES is assessed for sodium fast reactor applications. ANDES is the nodal solver implemented inside the multigroup pin-by-pin diffusion COBAYA3 code, and is based on the analytical method ACMFD. Thus, the ACMFD was verified for SFR applications and while doing so, some limitations were encountered, which are discussed through this work. In order to solve those, some new developments are proposed and implemented in ANDES. Moreover, the code was satisfactorily coupled with the thermal-hydraulic code SUBCHANFLOW, recently developed at KIT. Finally, the different implementations are verified. In addition to those developments, the node homogenized multigroup cross sections and other neutron parameters were obtained for the ESFR core using ERANOS and SERPENT codes, and employed afterwards by ANDES to perform steady state calculations. Moreover, as a result of the UPM contribution to the safety package of the CP-ESFR project, the point kinetic parameters required by the typical plant thermal-hydraulic codes were computed for the ESFR core using SERPENT, which final aim was the assessment of the impact of minor actinides in transient behaviour. All in all, the thesis provides a systematic and multi-purpose approach applied to the assessment of safety and performance parameters of Generation-IV SFR, using existing and newly developed analytical tools. An important amount of time was employed in identifying the limitations that the analytical nodal diffusion methods present when applied to fast reactors following a multigroup approach, and interesting solutions are proposed in order to overcome them.
Resumo:
This paper presents a theoretical framework intended to accommodate circuit devices described by characteristics involving more than two fundamental variables. This framework is motivated by the recent appearance of a variety of so-called mem-devices in circuit theory, and makes it possible to model the coexistence of memory effects of different nature in a single device. With a compact formalism, this setting accounts for classical devices and also for circuit elements which do not admit a two-variable description. Fully nonlinear characteristics are allowed for all devices, driving the analysis beyond the framework of Chua and Di Ventra We classify these fully nonlinear circuit elements in terms of the variables involved in their constitutive relations and the notions of the differential- and the state-order of a device. We extend the notion of a topologically degenerate configuration to this broader context, and characterize the differential-algebraic index of nodal models of such circuits. Additionally, we explore certain dynamical features of mem-circuits involving manifolds of non-isolated equilibria. Related bifurcation phenomena are explored for a family of nonlinear oscillators based on mem-devices.
Resumo:
The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.
Resumo:
El fordismo, adoptado mundialmente en los años 20 como la nueva religión industrial, cristalizó en la naciente Unión Soviética, donde la cuarta edición rusa de las memorias de Ford incluía una introducción en la que se decía que ?el fordismo es un sistema cuyos principios se conocen desde hace tiempo, y que ya habían sido establecidos por Marx?. Fue tal la aceptación que el estalinismo hace de los postulados de Ford, que en el año 1928, con el inicio del Primer Plan Quinquenal, representantes rusos visitaron Detroit y la empresa Albert Kahn inc fue contratada para la construcción de una serie de instalaciones industriales en la Unión Soviética, entre las que destacaba la nueva fábrica de tractores Fordson de la compañía Ford en Stalingrado. Moritz Kahn se trasladó con un equipo de ingenieros y arquitectos para formar una oficina de proyectos de unos 4.500 empleados en Rusia, en una aventura paradójica de confluencia entre capitalismo y comunismo que acabaría en 1932, después de haber realizado en torno a 550 instalaciones industriales de gran escala. La importancia de este legado para la arquitectura soviética incluye extensas realizaciones como las de Stalingrado, Nihi Tagil, Magnitogorsk y Cheliabisk, y queda apoyada documentalmente por la aparición de fotografías de estas obras en numerosas publicaciones, como la revista SA, en ?Método funcional y forma? de M. Ginzburg y en numerosos escritos y cartas de la época. Esta influencia es por otra parte poco valorada en la historiografía moderna, para la que parece que sólo trabajaron en Rusia arquitectos comprometidos con la causa socialista como Mendelsohn, May, Stam o Lurçat, olvidando a los principales actores del episodio, autores y constructores de los ?condensadores sociales? más importantes de la era soviética, las fábricas. En esta investigación se analiza la confluencia tanto morfológica como conceptual entre los postulados de Ford y Kahn para sus realizaciones industriales y los planeamientos reales y propuestas utópicas para las nuevas ciudades soviéticas, que se asemejaban a enormes objetos técnicos en los que el funcionamiento y la construcción mecanizados, la importancia dada a los flujos de materiales y personas, la disposición similar a la línea de montaje fordista y el papel nodal de las nuevas fábricas como "Palacios del Trabajo" exigieron una nueva relación con la geografía y la readecuación del propio modo de vida socialista.
Resumo:
La presente Tesis Doctoral aborda la introducción de la Partición de Unidad de Bernstein en la forma débil de Galerkin para la resolución de problemas de condiciones de contorno en el ámbito del análisis estructural. La familia de funciones base de Bernstein conforma un sistema generador del espacio de funciones polinómicas que permite construir aproximaciones numéricas para las que no se requiere la existencia de malla: las funciones de forma, de soporte global, dependen únicamente del orden de aproximación elegido y de la parametrización o mapping del dominio, estando las posiciones nodales implícitamente definidas. El desarrollo de la formulación está precedido por una revisión bibliográfica que, con su punto de partida en el Método de Elementos Finitos, recorre las principales técnicas de resolución sin malla de Ecuaciones Diferenciales en Derivadas Parciales, incluyendo los conocidos como Métodos Meshless y los métodos espectrales. En este contexto, en la Tesis se somete la aproximación Bernstein-Galerkin a validación en tests uni y bidimensionales clásicos de la Mecánica Estructural. Se estudian aspectos de la implementación tales como la consistencia, la capacidad de reproducción, la naturaleza no interpolante en la frontera, el planteamiento con refinamiento h-p o el acoplamiento con otras aproximaciones numéricas. Un bloque importante de la investigación se dedica al análisis de estrategias de optimización computacional, especialmente en lo referente a la reducción del tiempo de máquina asociado a la generación y operación con matrices llenas. Finalmente, se realiza aplicación a dos casos de referencia de estructuras aeronáuticas, el análisis de esfuerzos en un angular de material anisotrópico y la evaluación de factores de intensidad de esfuerzos de la Mecánica de Fractura mediante un modelo con Partición de Unidad de Bernstein acoplada a una malla de elementos finitos. ABSTRACT This Doctoral Thesis deals with the introduction of Bernstein Partition of Unity into Galerkin weak form to solve boundary value problems in the field of structural analysis. The family of Bernstein basis functions constitutes a spanning set of the space of polynomial functions that allows the construction of numerical approximations that do not require the presence of a mesh: the shape functions, which are globally-supported, are determined only by the selected approximation order and the parametrization or mapping of the domain, being the nodal positions implicitly defined. The exposition of the formulation is preceded by a revision of bibliography which begins with the review of the Finite Element Method and covers the main techniques to solve Partial Differential Equations without the use of mesh, including the so-called Meshless Methods and the spectral methods. In this context, in the Thesis the Bernstein-Galerkin approximation is subjected to validation in one- and two-dimensional classic benchmarks of Structural Mechanics. Implementation aspects such as consistency, reproduction capability, non-interpolating nature at boundaries, h-p refinement strategy or coupling with other numerical approximations are studied. An important part of the investigation focuses on the analysis and optimization of computational efficiency, mainly regarding the reduction of the CPU cost associated with the generation and handling of full matrices. Finally, application to two reference cases of aeronautic structures is performed: the stress analysis in an anisotropic angle part and the evaluation of stress intensity factors of Fracture Mechanics by means of a coupled Bernstein Partition of Unity - finite element mesh model.
Resumo:
Best estimate analysis of rod ejection transients requires 3D kinetics core simulators. If they use cross sections libraries compiled in multidimensional tables,interpolation errors – originated when the core simulator computes the cross sections from the table values – are a source of uncertainty in k-effective calculations that should be accounted for. Those errors depend on the grid covering the domain of state variables and can be easily reduced, in contrast with other sources of uncertainties such as the ones due to nuclear data, by choosing an optimized grid distribution. The present paper assesses the impact of the grid structure on a PWR rod ejection transient analysis using the coupled neutron-kinetics/thermal-hydraulicsCOBAYA3/COBRA-TF system. Forthispurpose, the OECD/NEA PWR MOX/UO2 core transient benchmark has been chosen, as material compositions and geometries are available, allowing the use of lattice codes to generate libraries with different grid structures. Since a complete nodal cross-section library is also provided as part of the benchmark specifications, the effects of the library generation on transient behavior are also analyzed.Results showed large discrepancies when using the benchmark library and own-generated libraries when compared with benchmark participants’ solutions. The origin of the discrepancies was found to lie in the nodal cross sections provided in the benchmark.