137 resultados para Intérvalo de simulación


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para la mejora continua de los procesos de fabricación y con el objetivo de alcanzar niveles óptimos de productividad, calidad y coste en la producción de componentes y productos, es fundamental disponer de un modelo preciso del proceso de corte. Estos modelos constituyen la base para la simulación del proceso de mecanizado que va a permitir calcular las fuerzas de corte, potencias o tiempos de ciclo. Un primer objetivo de esta tesis se ha centrado en el desarrollo de un modelo de estimación de fuerzas en fresado periférico. Este modelo no solo realiza la estimación de las fuerzas de corte sino que también considera la geometría del proceso en cada instante con el fin de calcular los arcos de empañe en cada rotación de la herramienta. El nuevo modelo desarrollado está basado en el espesor de viruta medio que, a diferencia de los modelos basados discos elementales, no necesita cálculos repetitivos. Este modelo permite estimar las fuerzas de corte no solo en condiciones uniformes sino también en régimen variable con cambios en los valores de ancho de corte y de profundidad de corte. Se han llevado a cabo un elevado número de ensayos, con herramientas de diferentes diámetros y para distintos materiales, con el fin de analizar el comportamiento de la herramienta. Se concluye que el modelo propuesto ofrece unos resultados óptimos en situaciones variables. Un segundo objetivo ha sido la optimización del fresado a través de la definición de estrategias de mecanizado de forma que sea posible su programación en una etapa previa a la fabricación del componente. Esta fase de optimización de las trayectorias de mecanizado estaría orientada sobre todo a situaciones en las que la herramienta está sometida a variaciones importantes de las condiciones de corte. La estrategia de mecanizado seleccionada se basa en la influencia que tiene la geometría y la evolución de las fuerzas en fresado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan resultados obtenidos mediante la aplicación del MétododePartículasyElementosFinitos (PFEM) en la simulación dedeslizamientosdeladeraenembalses. Es un fenómeno complejo, por la interacción entre el material deslizado, la masa de agua del embalse, yel conjunto formado por el vaso y la presa. PFEM es un esquema numérico original con el que se ha afrontado con éxito la resolución de problemas de interacción fluido-estructura. Combina un enfoque Lagrangiano con la resolución de las ecuaciones deelementosfinitosmediante la generación de una malla, que se actualiza en cada paso de tiempo. Se presentan resultados de casos de validación en los que se han reproducido ensayos en laboratorio existentes en la bibliografía técnica. Se muestran también otros cálculos más complejos, sobre la cartografía a escala real de un embalse, donde se aprecia el fenómeno de generación de la ola, su propagación por el embalse y la afección a la presa. Por último, se ha modelado el deslizamiento ocurrido en 1958 en la bahía de Lituya (Alaska), enel que la caída de 90 millones de toneladas de roca produjo una ola que alcanzó una sobreelevación máxima de 524 m en la ladera opuesta. Los resultados permiten afirmar que PFEM puede ser una herramienta útil enel análisis de riesgos frente a este tipo de fenómenos, ofreciendo una buena aproximación de las afecciones potenciales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante los últimos años la física atómica ha vuelto a cobrar un papel fundamental en los planes de investigación, entre los que destacan aquellos dedicados al estudio teórico y experimental de la fusión nuclear. Concretamente, en el concepto de fusión por confinamiento inercial se pueden distinguir cuatro grandes áreas donde es básico el conocimiento de las propiedades atómicas de la materia. Estas son: 1. Modelado de la interacción entre haces de partículas o láser con la cápsula combustible 2. Simulación de blancos de irradiación indirecta mediante conversión a rayos X 3. Diagnosis de experimentos 4. Láseres de rayos X La modelación de los plasmas en fusión depende principalmente de la densidad electrónica. En fusión por confinamiento magnético (tokamaks), los plasmas tienen densidades bajas, por lo que, en general, es suficiente considerar un modelo corona, en el que la mayoría de los iones se encuentran en su estado fundamental o con un número pequeño de estados excitados, estableciéndose sus poblaciones mediante un balance entre la ionización colisional/recombinación radiativa y excitación/decaimiento espontáneo. Sin embargo, los plasmas característicos de la fusión por confinamiento inercial tienen densidades más altas, aunque, normalmente, no lo suficientes como para poder establecer condiciones de equilibrio local termodinámico (balance entre procesos colisionales). Estas densidades, que se podrían clasificar como intermedias, se caracterizan por la aparición de un mayor número de estados excitados por ión y por la importancia tanto de los procesos colisionales como radiativos. Además de lo expuesto anteriormente, en ciertos regímenes de plasma, las variables termodinámicas locales, fundamentalmente presión (densidad) y temperatura, varían fuertemente con el tiempo, de manera que cuando los tiempos característicos de esta variación son menores que los propios de relajación de los procesos atómicos, el sistema no puede tratarse en estado estacionario, siendo necesario resolver las ecuaciones de balance con dependencia temporal. Estas ecuaciones de tasa o de balance contienen una serie de términos que representan los distintos procesos mediante una serie de coeficientes cuyas expresiones dependen de las condiciones del plasma, por lo que el problema es fuertemente no lineal. Por otra parte, hay que añadir que si el medio es ópticamente grueso a la radiación, en las ecuaciones de tasa aparecen términos radiativos que incluyen el campo de radiación, por lo que es necesario resolver la ecuación de transferencia en cada línea o bien, utilizar otras aproximaciones, que sin resolver dicha ecuación, permitan tener en cuenta el campo de radiación en la línea. Por todo ello, el objetivo de esta Tesis se centra en el desarrollo de un modelo original para el cálculo de la distribución de los estados de ionización en un plasma de fusión por confinamiento inercial en condiciones de no-equilibrio termodinámico local, caracterizado por: 1. Resolución de las ecuaciones de balance en estado estacionario y con dependencia temporal, considerando a las distintas especies iónicas tanto en su estado fundamental como en posibles estados excitados. 2. Elección de especies iónicas y número de estados excitados en función de las condiciones de densidad y temperatura del plasma. En el caso de una evolución temporal el número de estados excitados y su distribución se adecúan en cada caso a las condiciones del plasma. 3. Tratamiento de medios ópticamente finos y gruesos, utilizándose para estos últimos una evaluación aproximada del campo de radiación en la línea. 4. Capacidad de acoplamiento a un modelo hidrodinámico a través de la temperatura electrónica, densidad y campo de radiación. Entre todas estas características, se debe hacer constar que las principales aportaciones originales se refieren, en primer lugar, a la forma original de resolver las ecuaciones de tasa con dependencia temporal, ya que se tiene en cuenta la evolución de todos los estados: fundamentales y excitados, frente a la hipótesis habitual de resolver las ecuaciones temporales sólo de los estados fundamentales, y suponer los excitados en estado estacionario, es decir, que siguen el comportamiento de su correspondiente fundamental. En segundo lugar, la elección del número de estados excitados por cada funda- X mental, que se realiza mediante un cálculo inicial donde se considera todos los iones del plasma en estado fundamental, para en función de las densidades de población obtenidas, elegir los estados fundamentales y sus correspondientes excitados que se deben considerar. Y por último, señalar que en el tratamiento de medios ópticamente gruesos se ha conseguido obtener una evaluación de la radiación absorbida por el plasma, independientemente de la geometría del mismo, sin necesidad de resolver la ecuación de transferencia en la línea, y sin acudir a otros métodos, que sin resolver dicha ecuación, necesitan la definición de una geometría para el plasma, por ejemplo, factores de escape. El modelo ha sido comparado y contrastado tanto con resultados teóricos como experimentales, observando unos resultados muy aceptables, de lo cual se deduce que el modelo es capaz de suministrar la evaluación de los parámetros atómicos en este tipo de plasmas. A partir de esta Tesis, el modelo se puede potenciar, a través de varias líneas de investigación que se han identificado: 1. Tratamiento de medios ópticamente gruesos con resolución de la ecuación de transferencia en las líneas. 2. Evaluación detallada de las secciones eficaces de los distintos procesos que tienen lugar en plasmas, y que aparecen en las ecuaciones de balance a través de los coeficientes de tasa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La entrada del ordenador en los estudios de arquitectura induce un nuevo paradigma en el proceso de concepción arquitectónica, que aprovecha la capacidad de simulación y comunicación de las nuevas herramientas, pese a que el apoyo en procesos creativos más "difusos" sea muy limitado con las herramientas disponibles en el momento de publicación del libro que se prologa. Éste se orienta a mostrar las posibilidades del medio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La capacidad de comunicación de los seres humanos ha crecido gracias a la evolución de dispositivos móviles cada vez más pequeños, manejables, potentes, de mayor autonomía y más asequibles. Esta tendencia muestra que en un futuro próximo cercano cada persona llevaría consigo por lo menos un dispositivo de altas prestaciones. Estos dispositivos tienen incorporados algunas formas de comunicación: red de telefonía, redes inalámbricas, bluetooth, entre otras. Lo que les permite también ser empleados para la configuración de redes móviles Ad Hoc. Las redes móviles Ad Hoc, son redes temporales y autoconfigurables, no necesitan un punto de acceso para que los nodos intercambien información entre sí. Cada nodo realiza las tareas de encaminador cuando sea requerido. Los nodos se pueden mover, cambiando de ubicación a discreción. La autonomía de estos dispositivos depende de las estrategias de como sus recursos son utilizados. De tal forma que los protocolos, algoritmos o modelos deben ser diseñados de forma eficiente para no impactar el rendimiento del dispositivo, siempre buscando un equilibrio entre sobrecarga y usabilidad. Es importante definir una gestión adecuada de estas redes especialmente cuando estén siendo utilizados en escenarios críticos como los de emergencias, desastres naturales, conflictos bélicos. La presente tesis doctoral muestra una solución eficiente para la gestión de redes móviles Ad Hoc. La solución contempla dos componentes principales: la definición de un modelo de gestión para redes móviles de alta disponibilidad y la creación de un protocolo de enrutamiento jerárquico asociado al modelo. El modelo de gestión propuesto, denominado High Availability Management Ad Hoc Network (HAMAN), es definido en una estructura de cuatro niveles, acceso, distribución, inteligencia e infraestructura. Además se describen los componentes de cada nivel: tipos de nodos, protocolos y funcionamiento. Se estudian también las interfaces de comunicación entre cada componente y la relación de estas con los niveles definidos. Como parte del modelo se diseña el protocolo de enrutamiento Ad Hoc, denominado Backup Cluster Head Protocol (BCHP), que utiliza como estrategia de encaminamiento el empleo de cluster y jerarquías. Cada cluster tiene un Jefe de Cluster que concentra la información de enrutamiento y de gestión y la envía al destino cuando esta fuera de su área de cobertura. Para mejorar la disponibilidad de la red el protocolo utiliza un Jefe de Cluster de Respaldo el que asume las funciones del nodo principal del cluster cuando este tiene un problema. El modelo HAMAN es validado a través de un proceso la simulación del protocolo BCHP. El protocolo BCHP se implementa en la herramienta Network Simulator 2 (NS2) para ser simulado, comparado y contrastado con el protocolo de enrutamiento jerárquico Cluster Based Routing Protocol (CBRP) y con el protocolo de enrutamiento Ad Hoc reactivo denominado Ad Hoc On Demand Distance Vector Routing (AODV). Abstract The communication skills of humans has grown thanks to the evolution of mobile devices become smaller, manageable, powerful, more autonomy and more affordable. This trend shows that in the near future each person will carry at least one high-performance device. These high-performance devices have some forms of communication incorporated: telephony network, wireless networks, bluetooth, among others. What can also be used for configuring mobile Ad Hoc networks. Ad Hoc mobile networks, are temporary and self-configuring networks, do not need an access point for exchange information between their nodes. Each node performs the router tasks as required. The nodes can move, change location at will. The autonomy of these devices depends on the strategies of how its resources are used. So that the protocols, algorithms or models should be designed to efficiently without impacting device performance seeking a balance between overhead and usability. It is important to define appropriate management of these networks, especially when being used in critical scenarios such as emergencies, natural disasters, wars. The present research shows an efficient solution for managing mobile ad hoc networks. The solution comprises two main components: the definition of a management model for highly available mobile networks and the creation of a hierarchical routing protocol associated with the model. The proposed management model, called High Availability Management Ad Hoc Network (HAMAN) is defined in a four-level structure: access, distribution, intelligence and infrastructure. The components of each level: types of nodes, protocols, structure of a node are shown and detailed. It also explores the communication interfaces between each component and the relationship of these with the levels defined. The Ad Hoc routing protocol proposed, called Backup Cluster Head Protocol( BCHP), use of cluster and hierarchies like strategies. Each cluster has a cluster head which concentrates the routing information and management and sent to the destination when out of cluster coverage area. To improve the availability of the network protocol uses a Backup Cluster Head who assumes the functions of the node of the cluster when it has a problem. The HAMAN model is validated accross the simulation of their BCHP routing protocol. BCHP protocol has been implemented in the simulation tool Network Simulator 2 (NS2) to be simulated, compared and contrasted with a hierarchical routing protocol Cluster Based Routing Protocol (CBRP) and a routing protocol called Reactive Ad Hoc On Demand Distance Vector Routing (AODV).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los nudos son los defectos que más disminuyen la resistencia de piezas de madera en la escala estructural, al ocasionar no solo una discontinuidad material, sino también la desviación de las fibras que se encuentran a su alrededor. En la década de los 80 se introdujo la teoría de la analogía fluido-fibra, como un método que aproximaba adecuadamente todas estas desviaciones. Sin embargo en su aplicación tridimensional, nunca se consideraron las diferencias geométricas en el sentido perpendicular al eje longitudinal de las piezas estructurales, lo cual imposibilitaba la simulación numérica de algunos de los principales tipos de nudos, y disminuía la precisión obtenida en aquellos nudos en los que la modelización sí era viable. En este trabajo se propone un modelo programado en lenguaje paramétrico de un software de elementos finitos que, bajo una formulación en tres dimensiones más general, permitirá estudiar de forma automatizada el comportamiento estructural de la madera bajo la influencia de los principales tipos de nudos, a partir de la geometría visible de los mismos y la posición de la médula en la pieza, y el cual ha sido contrastado experimentalmente, simulando de forma muy precisa el comportamiento mecánico de vigas sometidas a ensayos de flexión a cuatro puntos. Knots are the defects that most reduce the strength of lumber at the structural level, by causing not only a material discontinuity but also the deviation of the fibers that surround them. In the 80's it was introduced the theory of the flow-grain analogy as a method to approximating adequately these deviations. However, in three-dimensional applications, geometrical differences in the direction perpendicular to the longitudinal axis of the structural specimens were never considered before, which prevented the numerical simulation of some of the main types of knots, and decreased the achieved precision in those kind of knots where modeling itself was possible. This paper purposes a parametric model programmed in a finite element software, in the way that with a more general three-dimensional formulation, an automated study of the structural behavior of timber under the influence of the main types of knots is allowed by only knowing the visible geometry of such defects, and the position of the pith. Furthermore that has been confirmed experimentally obtaining very accurately simulations of the mechanical behavior of beams under four points bending test.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance de la presión antrópica sobre las márgenes de los cauces, y la creciente dificultad técnica, política y social para ejecutar nuevos proyectos de grandes presas, promueve la necesidad de utilizar más eficientemente los sistemas de control de avenidas existentes. En el presente trabajo se presenta una metodología de análisis para evaluar y comparar las estrategias de gestión de embalses, considerando su operación individual, a fin de establecer la más adecuada. En particular se comparan dos modos de gestión ante situación de avenidas: el Método de Evaluación Volumétrica (MEV) desarrollado por Girón (1988), de amplia difusión en España, y un modelo de optimización de la gestión mediante Programación Lineal Entera Mixta (PLEM). Para ello se ha implementado un entorno de cálculo con estructura modular. El primer módulo permite generar un conjunto representativo de hidrogramas de entrada a los embalses mediante simulación de Monte Carlo. Luego, dos módulos que funcionan en paralelo simulan la gestión del embalse según las dos estrategias mencionadas (MEV y PLEM). Finalmente, se evalúa el comportamiento de ambas estrategias ante el conjunto de solicitaciones hidrológicas generado. Se propone el empleo del Índice de Riesgo Global (I1), que pondera el resultado de la estrategia de gestión frente a un conjunto de hidrogramas de solicitación. Dicho indicador tiene en cuenta el daño esperado debido a los caudales máximos vertidos y el riesgo para la presa debido a los niveles máximos alcanzados en el embalse. Para ello se analiza la función de distribución de probabilidad de las dos variables (máximo caudal vertido y máximo nivel alcanzado) para la población de hidrogramas analizada. El modelo PLEM se calibra empleando el índice I1. Este mismo índice es utilizado para comparar ambas estrategias, entendiendo como la más adecuada aquella que tenga asociado el menor I1. Este sistema de análisis se aplicó a tres embalses de la cuenca del río Segura, con diferentes características en lo referente al tipo y capacidad de aliviadero, volumen de embalse y de resguardo. En los tres casos se han obtenido mejores resultados con el modelo PLEM que con el modelo MEV, tanto en lo concerniente a caudales máximos vertidos como a los niveles máximos alcanzados, para todo el rango de avenidas analizado. Sin embargo, la diferencia entre ambas estrategias no es muy significativa y el MEV presenta características que lo hacen más adecuado para su empleo en tiempo real

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los objetivos del Proyecto europeo NURISP (NUclear Reactor Integrated Platform) del 7º Programa Marco es avanzar en la simulación de reactores de agua ligera mediante el acoplamiento de códigos best-estimate que profundicen en la física de núcleo, termohidráulica bifásica y comportamiento del combustible [1]. Uno de estos códigos es COBAYA3, código de difusión 3D en multigrupos pin-by-pin desarrollado en la UPM, que requiere de librerías de secciones eficaces homogeneizadas a nivel de la barrita de combustible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Debido a la existencia de recomendaciones europeas que establecen valores por defecto ante la ausencia de datos en el proceso de realización de un mapa de ruido [1], se ha evaluado la influencia de aplicar dichos valores en un caso concreto como es el mapa estratégico de ruido de Palma de Mallorca. Se compararon los resultados de la simulación tras aplicar dichos valores por defecto con niveles de ruido obtenidos mediante medidas experimentales y se analizaron las desviaciones para determinar la calidad del modelo. Después de obtener un primer resultado de calidad inaceptable, se ha cuantificado la mejora de los resultados tras la utilización de datos de entrada de mayor calidad al modelo acústico. Este análisis demuestra que el uso de datos por defecto, en ausencia de datos de entrada de mayor calidad, genera unos resultados con desviaciones superiores a los 9 dB. Consecuentemente, se obtuvieron nuevos datos de entrada al modelo con mayor calidad, analizando su efecto en la reducción de la incertidumbre del resultado final del mapa de ruido. El proceso de obtención de dichos datos consistió en el desarrollo de una actualización de los datos de tráfico con mayor número de datos de flujo; la implementación de una nueva categorización viaria; y la utilización de técnicas novedosas para la adquisición de composición y velocidad de tráfico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El comportamiento de los materiales granulares almacenados en silos se ve afectado por varios parámetros, tanto aquellos característicos del material como de la geometría del silo. La determinación del coeficiente de rozamiento pared-partícula es uno de los parámetros de mayor importancia, siendo habituales en su determinación el uso de ensayos de corte directo. En el presente trabajo se estudia dicho coeficiente para el supuesto de una pared corrugada, el cual, teóricamente, debe representar a un valor efectivo que depende tanto del coeficiente de rozamiento grano-pared (para el caso de una pared lisa) y el ángulo de rozamiento interno del material. La determinación del rozamiento efectivo se ha realizado a través de la simulación por elementos discretos de un ensayo de corte sobre una pared corrugada. Los valores obtenidos han sido comparados con las prescripciones expuestas en la normativa vigente. La potencialidad del método de los elementos discretos permite el estudio de diversas configuraciones geométricas de la pared corrugada de los silos sin necesidad de realizar ensayos de laboratorio. Esto permitirá, en trabajos sucesivos, investigar la influencia de muy diversos factores en el valor del rozamiento efectivo grano-pared en este tipo de paredes. The mechanical behaviour of granular materials stored in silos is affected by numerous parameters, some of them being related to the characteristic of the stored materials and others to the geometry of the silo. The determination of the particle-wall friction coefficient (or wall friction) is of great importance and direct shear tests are usually conducted in order to obtain its value. In this work this variable is analysed for the case of a corrugated wall. This value is expected to be an effective value between the particle-wall friction coefficient (obtained for a flat wall) and the internal friction coefficient of the material under study. The effective wall friction determination has been carried out by using a discrete element model to simulate a direct shear test on a corrugated wall. The values obtained have been compared with prescriptions given in the current standards. The potential of the discrete element method allows different geometries of the silo corrugated wall to be considered without the necessity of developing laboratory tests. In future works it will allow the influence of numerous parameters on the effective wall friction in corrugated walls to be studied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación parte del problema en las zonas de clima cálido - húmedo en las cuales se producen impactos asociados a la incomodidad térmica producto de la intensa radiación solar, altas temperaturas y elevada humedad. Estos factores reducen la calidad de los espacios abiertos y desarrollan en la población una actitud de rechazo hacia el uso del microespacio urbano entre edificaciones en los desarrollos urbanos - conjuntos urbanos - , los mismos frecuentemente admiten soluciones que al parecer no contribuyen a la realización de las actividades comunes de esparcimiento de la población residente. Por lo tanto, el objetivo de la investigación es profundizar en la temática urbano - ambiental - social y el diseño urbano vinculada a la particularidad morfológica local, las condiciones microclimáticas, el uso del microespacio y los requerimientos de los usuarios. La finalidad de desarrollar estrategias de control microclimático del microespacio entre edificios en clima cálido - húmedo en búsqueda de soluciones óptimas que satisfagan las necesidades de los usuarios de los espacios exteriores en estas áreas residenciales. La investigación se centra en el estudio de las particularidades contextuales relacionadas con el microclima y las características urbanas - morfotipológicas, básicamente los factores microclimáticos (soleamiento y ventilación), los morfológicos y edificatorios y las características de las superficies (pavimentos). En coherencia con el objetivo propuesto el trabajo se desarrolla en cuatro fases: la primera aborda la revisión documental, literatura relevante e investigaciones relativas a la calidad ambiental, medio social, medio físico, el microespacio urbano, control y diseño sostenible, modelización proyectual y estrategias sostenibles; la segunda fase se refiere al marco contextual, características urbanas, datos climáticos locales, planes y procesos urbanos, tipologías y conformación urbana. En esta fase se describe el proceso de selección, análisis y evaluación urbano - ambiental de los casos de estudio (conjuntos residenciales). En la tercera fase se aborda el marco evaluativo y estudio de casos, consideraciones físicas, climáticas y valoración térmico - ambiental de los conjuntos residenciales seleccionados. En esta fase se aplican Técnicas Estadísticas y de Simulación Computacional y se analizan los resultados obtenidos. Finalmente, la cuarta fase propositiva incluye el establecimiento de Estrategias, Principios y Lineamientos de optimación térmica y se exponen las Conclusiones parciales de la tesis, alcances y perspectivas futuras. Finalmente, los resultados obtenidos en la investigación demuestran que el análisis en las experiencias de la realidad permiten comprobar que las situaciones y alteraciones ambientales sustanciales, los niveles de afectación térmica y las condiciones de confortabilidad e impacto derivan de las características urbanas, los componentes del microespacio y de las condiciones climáticas las cuales afectan el desarrollo de las actividades y el uso efectivo del microespacio entre edificios. El análisis de los factores morfo - climáticos incidentes y el estudio de los efectos de interacción contribuyen al establecimiento de Principios y Lineamientos para la evaluación y diseño sostenible del microespacio entre edificios y el uso correcto de los elementos del clima en estas áreas urbanas destinadas a la actividad social y al esparcimiento de la población residente. ABSTRACT This research starts from the problem of hot - humid climate zones where impacts related to thermal discomfort are produced as a result from the intense solar radiation and high temperatures and humidity. These factors reduce the quality of open spaces and people develop an attitude of rejection towards the use of urban microspace among buildings within urban developments - urban complexes - . Usually, these complexes admit solutions that apparently do not contribute to the achievement of common leisure activities in the resident dwellers. Therefore, the main purpose of this research is to deepen in the urban - environmental - social issue and urban design linked to the local morphological particularity, microclimate conditions, use of microspace and users’ requirements. In order to develop microclimate control strategies of microspace among buildings in hot - humid climate to look for optimal solutions that satisfy users’ needs of outdoors spaces in these residential areas. The research focuses in the study of contextual particularities related to microclimate and urban - morphotypological characteristics. Basically, microclimate (sunlight and ventilation), morphological and building factors as well as road surface characteristics. According to the proposed objective, this research is developed in four phases: the first one considers documentary review, relevant literature and researches related to environmental quality, social environment, physical environment, urban microspace, control and sustainable design, project modelling and sustainable strategies; while the second phase refers to contextual framework, urban characteristics, local climate data, plans and urban processes, typologies and urban structure. In this phase, the process of selection, analysis and urban - environmental evaluation of case studies (residential complexes) is described. The third phase approaches the assessment framework and case studies, physical and climate considerations as well as environmental - thermal evaluation of selected residential complexes. In this phase, statistical techniques and computational simulations are applied. Likewise, results obtained are analysed. Similarly, fourth and proposing phase includes the establishment of strategies, principles and guidelines of thermal optimization and partial conclusions of the thesis, scopes and future perspectives are exposed. Finally, from the results obtained, it is demonstrated that the analysis on reality experiences allow proving that situations and substantial environmental changes, levels of thermal affectations, comfort conditions and impact derive from urban characteristics, microspace components and from climate conditions which affect the development of activities and the effective use of microspace among buildings. The analysis of incidental morpho - climate factors and the study of interaction effects contribute to the establishment of principles and guidelines for the assessment and sustainable design of microspace among buildings as well as the correct use of climate elements in these urban areas oriented to social and leisure activities of resident population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el año 2002 durante una inspección se localizó una importante corrosión en la cabeza de la vasija de Davis Besse NPP. Si no se hubiera producido esa detección temprana, la corrosión hubiera provocado una pequeña rotura en la cabeza de la vasija. La OECD/NEA consideró la importancia de simular esta secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Los resultados de este test experimental fueron muy analizados internacionalmente por la gran influencia que dos factores tenía sobre el resultado: las acciones del operador relativas a la despresurización y la detección del descubrimiento del núcleo por los termopares que se encuentran a su salida. El comienzo del inicio de la despresurización del secundario estaba basado en la determinación del descubrimiento del núcleo por la lectura de los temopares de salida del núcleo. En el experimento se registró un retraso importante en la determinación de ese descubrimiento, comenzando la despresurización excesivamente tarde y haciendo necesaria la desactivación de los calentadores que simulan el núcleo del reactor para evitar su daño. Dada las condiciones excesivamente conservadoras del test experimentale, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La simulación de accidentes de rotura pequeña en el fondo de la vasija se aparta del convencional análisis de LOCA de rama fría, el más limitante en los análisis deterministas La rotura de una de las penetraciones de instrumentación de la vasija ha sido desestimada históricamente en los análisis de licencia y en los Análisis Probabilistas de Seguridad y por ello, hay una falta evidente de literatura para dicho análisis. En el año 2003 durante una inspección, se detectó una considerable corrosión en el fondo de la vasija de South Texas Project Unit I NPP. La evolución en el tiempo de dicha corrosión habría derivado en una pequeña rotura en el fondo de la vasija si su detección no se hubiera producido a tiempo. La OECD/NEA consideró la importancia de simular dicha secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Tanto en el experimento como en la simulación se observaron las dificultades de reinundar la vasija al tener la rotura en el fondo de la misma, haciendo clave la gestión del accidente por parte del operador. Dadas las condiciones excesivamente conservadoras del test experimental, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La catenaria rígida presenta algunas características que la hacen especialmente apropiada para su montaje en líneas de metro, si bien el aumento del límite de velocidad de los vehículos destinados a las líneas modernas exige un diseño más eficiente para estos sistemas. En este trabajo se ha analizado el comportamiento dinámico de este tipo de sistemas de captación, a fin de diseñar un nuevo carril conductor con un comportamiento dinámico superior al de los ya existentes. Esto implica la posibilidad de aumentar la velocidad de circulación o la distancia entre soportes, con el consiguiente ahorro del coste de instalación. A tal fin, se ha modelizado un sistema pantógrafo-catenaria real, empleando técnicas avanzadas de modelado y simulación. Se ha realizado un estudio de sensibilidad, para analizar la influencia de cada variable de diseño sobre el comportamiento dinámico del conjunto, y se ha diseñado un carril conductor con mejores prestaciones que el actual.