41 resultados para Tanques acoplados


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El oleaje de la masa de líquido contenida en el interior del tanque de los camiones cisterna puede afectar significativamente a su dinámica de marcha y su estabilidad. Plateando como objetivo, el aumento de la seguridad, cualquier mejora en el diseño del vehículo o en la geometría de la virola, redundará en un aumento de la misma. En la actualidad, el marco normativo exige a los vehículos un umbral de vuelco mínimo, verificable mediante ensayo o cálculo en condiciones cuasi-estáticas. La experiencia en su aplicación ha demostrado que, éste último resulta extremadamente conservador, limitando las posibilidades de diseño del fabricante; además, el grado de equivalencia con las condiciones dinámicas a las que se puede ver sometido el vehículo durante su vida útil, no es claro. En esta tesis, se proponen una serie de mejoras en el método de cálculo simplificado, que aumentan la precisión en la estimación del umbral de vuelco, junto con el empleo de un coeficiente de ponderación del ángulo requerido, para tener en cuenta el efecto dinámico del oleaje. Además, se ha desarrollado un método de cálculo alternativo, que disminuye el error de la predicción, aunque requiere conocer un mayor número de parámetros del vehículo. Para cuantificar el efecto de la carga líquida, se ha realizado un análisis experimental, con tanques a escala, de las geometrías más frecuentes, junto con la propuesta de una metodología de simulación de la interacción fluido-vehículo, basada en el acoplamiento entre un modelo obtenido mediante una analogía mecánica que reproduce el efecto del oleaje, con un modelo del vehículo, empleando la técnica de multi-cuerpo, que ha sido validada experimentalmente. Para la obtención de los parámetros que la definen, se propone dos alternativas, la experimentación y estimación parámetros o el empleo la dinámica computacional de fluidos, basada en las ecuaciones de Navier-Stokes, incorporando la técnica de volumen de fluido para capturar la superficie libre. Se ofrecen resultados de ambas y su comparación. Finalmente, se han analizado las diferentes tipologías de maniobras existentes para la evaluación de la estabilidad lateral de los vehículos con ensayos dinámicos, calificando y cuantificando su equivalencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los códigos de difusión en multigrupos para an álisis tridimensional de núcleos PWR emplean como datos de entrada librerías de parámetros equivalentes homogeneizados y condensados (secciones eficaces y factores de discontinuidad), que dependen de las variables de estado como temperaturas o densidades. Típicamente, esos pará metros se pre-generan para cada tipo de celda o elemento combustible con un código de transporte determinista, dependiendo en gran medida la precisión de los cálculos neutrónicos acoplados con la termohidráulica de la calidad de la librería generada. Las librerías tabuladas son la forma más extendida de compilar las secciones eficaces pre-generadas. Durante el cálculo de núcleo, el código de difusión simplemente obtiene las secciones eficaces por interpolación de los valores en los puntos de la malla. Como los errores de interpolación dependen de la distancia entre esos puntos, se requiere un considerable refinamiento de la malla –con todas las posibles combinaciones de las variables de estado– para conseguir una precisión adecuada, lo que conduce a requisitos elevados de almacenamiento y un gran número de cálculos de transporte para su generación. Para evitar este inconveniente, se ha desarrollado un procedimiento de optimización de librerías tabuladas que permite seleccionar el menor número de puntos de malla para cada variable de estado independiente, manteniendo un error objetivo en la constante de multiplicación k-efectiva. El procedimiento consiste en determinar, aplicando teoría de perturbaciones, los coeficientes de sensibilidad de la k-efectiva con las secciones eficaces. Ello permite evaluar la influencia de los errores de interpolación de cada sección eficaz en la constante de multiplicación para cualquier combinación de las variables de estado. La medida de esta influencia o sensibilidad permite establecer una distancia óptima entre puntos de interpolación dado un error objetivo sobre la constante de multiplicación. Distintos números de grupos de energía, composiciones del elemento combustible y escalas de homogeneización, han sido estudia dos para conocer su efecto sobre la optimización. Asimismo se ha comprobado la influencia de variar el error objetivo o el grado del polinomio de interpolación entre puntos. Finalmente, se realiza un cálculo con la librería optimizada, y se verifica que el error en la k-efectiva está limitado. Se reduce así el tamaño de la librería sin comprometer su grado de precisión en todo el rango de interés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente Trabajo Fin de Máster pretende llevar a cabo el análisis del comportamiento vibratorio de resonadores de membrana, consistentes en un panel delgado y ligero montado a cierta distancia de un elemento constructivo rígido y pesado. Este tipo de sistemas resonantes son empleados habitualmente como absorbentes de media-baja frecuencia en aplicaciones de acondicionamiento acústico de salas. El análisis hará especial hincapié en la influencia del acoplamiento mecánico-acústico entre la placa vibrante (estructura) y el colchón de aire (fluido) encerrado entre la misma y la pared rígida. En primer lugar, realizaremos el análisis modal experimental del resonador objeto de ensayo a partir de las mediciones de su respuesta vibratoria, con el fin de caracterizar su comportamiento en base a sus primeros modos propios acoplados de flexión. El análisis de las señales vibratorias en el dominio de la frecuencia para la identificación de dicho modos se realizará en el entorno de programación MATLAB, haciendo uso de una herramienta propia que implementa los métodos de cálculo y los algoritmos necesarios para tal fin. Asimismo, simularemos el comportamiento del resonador mediante el método de elementos finitos (FEM), utilizando las aplicaciones ANSYS y SYSNOISE, considerando diferentes condiciones frontera en el modelo generado. Los resultados aquí obtenidos serán de utilidad para complementar aquellos obtenidos de forma experimental a la hora de extraer conclusiones prácticas del análisis realizado. SUMMARY. This Master's Thesis intends to carry out the analysis of the vibratory behaviour of resonance absorbers, consisting of a thin and lightweight panel mounted at a distance from a rigid wall. Such systems are commonly used as sound absorption systems for mid-low frequency in room acoustics applications. The analysis will emphasize the influence of mechanical-acoustic coupling between the vibrating plate (structure) and the air cushion (acoustic element) enclosed behind it. First of all, we are performing the experimental modal analysis of the resonance absorber under test from the vibrational response measurements, in order to characterize its behaviour based on its first bending coupled-modes. The analysis of vibration signals in the frequency domain for the identification of such modes will be made in MATLAB programming environment, using a proprietary tool that implements the calculation methods and algorithms needed for this purpose. Furthermore, we are simulating the behaviour of the resonance absorber applying the Finite Element Method (FEM) – using ANSYS and SYSNOISE applications - considering different boundary conditions in the model created. The results from the simulation will be useful to complement those obtained experimentally when drawing practical conclusions from this analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha realizado un diseño básico de los equipos principales de una instalación de almacenamiento y regasificación de Gas Natural Licuado (GNL) situado en el polígono industrial de Granadilla, en la isla de Tenerife, dentro de la Comunidad Autónoma de las Islas Canarias. La capacidad de la planta es de 150 000 m3(n)/h. La carencia actual de este combustible en las islas hace que la futura ubicación de una instalación de este tipo sea idónea para sustituir a medio y largo plazo los combustibles pesados que se consumen en la actualidad por otro producto más limpio, de menor coste, menos contaminante y mejores características de combustión como es el Gas Natural. El proyecto ha comprendido el diseño de los equipos más importantes de la planta, tales como tanques de almacenamientos, bombas, compresores y relicuador. También se ha realizado un estudio medioambiental y un presupuesto aproximado del coste de la instalación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presento proyecto tiene como objetivo el diseño de una cisterna de transporte de GLP y establecer todos los elementos que han de componer una cisterna así como una explicación de cada uno de ellos. Todos los cálculos del diseño están referidos a la normativa actual “UNE-EN 12493:2009+A1:2012 Equipos y accesorios para GLP. Tanques de acero soldados para gases licuados del petróleo (GLP). Diseño y fabricación de camiones cisterna”. Además se realiza una breve introducción sobre el GLP explicando el origen, la composición y los diferentes usos que tiene. Se exponen las medidas de prevención que son necesarias y se detallan todos los procedimientos así como todas las operaciones que se han de realizar para la carga y descarga del camión cisterna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuando una colectividad de sistemas dinámicos acoplados mediante una estructura irregular de interacciones evoluciona, se observan dinámicas de gran complejidad y fenómenos emergentes imposibles de predecir a partir de las propiedades de los sistemas individuales. El objetivo principal de esta tesis es precisamente avanzar en nuestra comprensión de la relación existente entre la topología de interacciones y las dinámicas colectivas que una red compleja es capaz de mantener. Siendo este un tema amplio que se puede abordar desde distintos puntos de vista, en esta tesis se han estudiado tres problemas importantes dentro del mismo que están relacionados entre sí. Por un lado, en numerosos sistemas naturales y artificiales que se pueden describir mediante una red compleja la topología no es estática, sino que depende de la dinámica que se desarrolla en la red: un ejemplo son las redes de neuronas del cerebro. En estas redes adaptativas la propia topología emerge como consecuencia de una autoorganización del sistema. Para conocer mejor cómo pueden emerger espontáneamente las propiedades comúnmente observadas en redes reales, hemos estudiado el comportamiento de sistemas que evolucionan según reglas adaptativas locales con base empírica. Nuestros resultados numéricos y analíticos muestran que la autoorganización del sistema da lugar a dos de las propiedades más universales de las redes complejas: a escala mesoscópica, la aparición de una estructura de comunidades, y, a escala macroscópica, la existencia de una ley de potencias en la distribución de las interacciones en la red. El hecho de que estas propiedades aparecen en dos modelos con leyes de evolución cuantitativamente distintas que siguen unos mismos principios adaptativos sugiere que estamos ante un fenómeno que puede ser muy general, y estar en el origen de estas propiedades en sistemas reales. En segundo lugar, proponemos una medida que permite clasificar los elementos de una red compleja en función de su relevancia para el mantenimiento de dinámicas colectivas. En concreto, estudiamos la vulnerabilidad de los distintos elementos de una red frente a perturbaciones o grandes fluctuaciones, entendida como una medida del impacto que estos acontecimientos externos tienen en la interrupción de una dinámica colectiva. Los resultados que se obtienen indican que la vulnerabilidad dinámica es sobre todo dependiente de propiedades locales, por tanto nuestras conclusiones abarcan diferentes topologías, y muestran la existencia de una dependencia no trivial entre la vulnerabilidad y la conectividad de los elementos de una red. Finalmente, proponemos una estrategia de imposición de una dinámica objetivo genérica en una red dada e investigamos su validez en redes con diversas topologías que mantienen regímenes dinámicos turbulentos. Se obtiene como resultado que las redes heterogéneas (y la amplia mayora de las redes reales estudiadas lo son) son las más adecuadas para nuestra estrategia de targeting de dinámicas deseadas, siendo la estrategia muy efectiva incluso en caso de disponer de un conocimiento muy imperfecto de la topología de la red. Aparte de la relevancia teórica para la comprensión de fenómenos colectivos en sistemas complejos, los métodos y resultados propuestos podrán dar lugar a aplicaciones en sistemas experimentales y tecnológicos, como por ejemplo los sistemas neuronales in vitro, el sistema nervioso central (en el estudio de actividades síncronas de carácter patológico), las redes eléctricas o los sistemas de comunicaciones. ABSTRACT The time evolution of an ensemble of dynamical systems coupled through an irregular interaction scheme gives rise to dynamics of great of complexity and emergent phenomena that cannot be predicted from the properties of the individual systems. The main objective of this thesis is precisely to increase our understanding of the interplay between the interaction topology and the collective dynamics that a complex network can support. This is a very broad subject, so in this thesis we will limit ourselves to the study of three relevant problems that have strong connections among them. First, it is a well-known fact that in many natural and manmade systems that can be represented as complex networks the topology is not static; rather, it depends on the dynamics taking place on the network (as it happens, for instance, in the neuronal networks in the brain). In these adaptive networks the topology itself emerges from the self-organization in the system. To better understand how the properties that are commonly observed in real networks spontaneously emerge, we have studied the behavior of systems that evolve according to local adaptive rules that are empirically motivated. Our numerical and analytical results show that self-organization brings about two of the most universally found properties in complex networks: at the mesoscopic scale, the appearance of a community structure, and, at the macroscopic scale, the existence of a power law in the weight distribution of the network interactions. The fact that these properties show up in two models with quantitatively different mechanisms that follow the same general adaptive principles suggests that our results may be generalized to other systems as well, and they may be behind the origin of these properties in some real systems. We also propose a new measure that provides a ranking of the elements in a network in terms of their relevance for the maintenance of collective dynamics. Specifically, we study the vulnerability of the elements under perturbations or large fluctuations, interpreted as a measure of the impact these external events have on the disruption of collective motion. Our results suggest that the dynamic vulnerability measure depends largely on local properties (our conclusions thus being valid for different topologies) and they show a non-trivial dependence of the vulnerability on the connectivity of the network elements. Finally, we propose a strategy for the imposition of generic goal dynamics on a given network, and we explore its performance in networks with different topologies that support turbulent dynamical regimes. It turns out that heterogeneous networks (and most real networks that have been studied belong in this category) are the most suitable for our strategy for the targeting of desired dynamics, the strategy being very effective even when the knowledge on the network topology is far from accurate. Aside from their theoretical relevance for the understanding of collective phenomena in complex systems, the methods and results here discussed might lead to applications in experimental and technological systems, such as in vitro neuronal systems, the central nervous system (where pathological synchronous activity sometimes occurs), communication systems or power grids.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo trata de elementos reforzados con barras de armadura y Fibras Metálicas Recicladas (FMR). El objetivo principal es mejorar el comportamiento a fisuración de elementos sometidos a flexión pura y a flexión compuesta, aumentando en consecuencia las prestaciones en servicio de aquellas estructuras con requerimientos estrictos con respecto al control de fisuración. Entre éstas últimas se encuentran las estructuras integrales, es decir aquellas estructuras sin juntas (puentes o edificios), sometidas a cargas gravitatorias y deformaciones impuestas en los elementos horizontales debidas a retracción, fluencia y temperatura. Las FMR son obtenidas a partir de los neumáticos fuera de uso, y puesto que el procedimiento de reciclado se centra en el caucho en vez que en el acero, su forma es aleatoria y con longitud variable. A pesar de que la eficacia del fibrorefuerzo mediante FMR ha sido demostrada en investigaciones anteriores, la innovación que representa este trabajo consiste en proponer la acción combinada de barras convencionales y FMR en la mejora del comportamiento a fisuración. El objetivo es por tanto mejorar la sostenibilidad del proyecto de la estructura en HA al utilizar materiales reciclados por un lado, y aumentando por el otro la durabilidad. En primer lugar, se presenta el estado del arte con respecto a la fisuración en elementos de HA, que sucesivamente se amplía a elementos reforzados con barras y fibras. Asimismo, se resume el método simplificado para el análisis de columnas de estructuras sin juntas ya propuesto por Pérez et al., con particular énfasis en aquellos aspectos que son incompatibles con la acción de las fibras a nivel seccional. A continuación, se presenta un modelo para describir la deformabilidad seccional y la fisuración en elementos en HA, que luego se amplía a aquellos elementos reforzados con barras y fibras, teniendo en cuenta también los efectos debidos a la retracción (tension stiffening negativo). El modelo es luego empleado para ampliar el método simplificado para el análisis de columnas. La aportación consiste por tanto en contar con una metodología amplia de análisis para este tipo de elementos. Seguidamente, se presenta la campaña experimental preliminar que ha involucrado vigas a escala reducida sometidas a flexión simple, con el objetivo de validar la eficiencia y la usabilidad en el hormigón de las FMR de dos diferentes tipos, y su comportamiento con respecto a fibras de acero comerciales. Se describe a continuación la campaña principal, consistente en ensayos sobre ocho vigas en flexión simple a escala 1:1 (variando contenido en FRM, Ø/s,eff y recubrimiento) y doce columnas a flexión compuesta (variando contenido en FMR, Ø/s,eff y nivel de fuerza axil). Los resultados obtenidos en la campaña principal son presentados y comentados, resaltando las mejoras obtenidas en el comportamiento a fisuración de las vigas y columnas, y la rigidez estructural de las columnas. Estos resultados se comparan con las predicciones del modelo propuesto. Los principales parámetros estudiados para describir la fisuración y el comportamiento seccional de las vigas son: la separación entre fisuras, el alargamiento medio de las armaduras y la abertura de fisura, mientras que en los ensayos de las columnas se ha contrastado las leyes momento/curvatura, la tensión en las barras de armadura y la abertura de fisura en el empotramiento en la base. La comparación muestra un buen acuerdo entre las predicciones y los resultados experimentales. Asimismo, se nota la mejora en el comportamiento a fisuración debido a la incorporación de FMR en aquellos elementos con cuantías de armadura bajas en flexión simple, en elementos con axiles bajos y para el control de la fisuración en elementos con grandes recubrimientos, siendo por tanto resultados de inmediato impacto en la práctica ingenieril (diseño de losas, tanques, estructuras integrales, etc.). VIIIComo punto final, se presentan aplicaciones de las FMR en estructuras reales. Se discuten dos casos de elementos sometidos a flexión pura, en particular una viga simplemente apoyada y un tanque para el tratamiento de agua. En ambos casos la adicción de FMR al hormigón lleva a mejoras en el comportamiento a fisuración. Luego, utilizando el método simplificado para el análisis en servicio de columnas de estructuras sin juntas, se calcula la máxima longitud admisible en casos típicos de puentes y edificación. En particular, se demuestra que las limitaciones de la práctica ingenieril actual (sobre todo en edificación) pueden ser aumentadas considerando el comportamiento real de las columnas en HA. Finalmente, los mismos casos son modificados para considerar el uso de MFR, y se presentan las mejoras tanto en la máxima longitud admisible como en la abertura de fisura para una longitud y deformación impuesta. This work deals with elements reinforced with both rebars and Recycled Steel Fibres (RSFs). Its main objective is to improve cracking behaviour of elements subjected to pure bending and bending and axial force, resulting in better serviceability conditions for these structures demanding keen crack width control. Among these structures a particularly interesting type are the so-called integral structures, i.e. long jointless structures (bridges and buildings) subjected to gravitational loads and imposed deformations due to shrinkage, creep and temperature. RSFs are obtained from End of Life Tyres, and due to the recycling process that is focused on the rubber rather than on the steel they come out crooked and with variable length. Although the effectiveness of RSFs had already been proven by previous research, the innovation of this work consists in the proposing the combined action of conventional rebars and RSFs to improve cracking behaviour. Therefore, the objective is to improve the sustainability of RC structures by, on the one hand, using recycled materials, and on the other improving their durability. A state of the art on cracking in RC elements is firstly drawn. It is then expanded to elements reinforced with both rebars and fibres (R/FRC elements). Finally, the simplified method for analysis of columns of long jointless structures already proposed by Pérez et al. is resumed, with a special focus on the points that conflict when taking into account the action of fibres. Afterwards, a model to describe sectional deformability and cracking of R/FRC elements is presented, taking also into account the effect of shrinkage (negative tension stiffening). The model is then used to implement the simplified method for columns. The novelty represented by this is that a comprehensive methodology to analyse this type of elements is presented. A preliminary experimental campaign consisting in small beams subjected to pure bending is described, with the objective of validating the effectiveness and usability in concrete of RSFs of two different types, and their behaviour when compared with commercial steel fibres. With the results and lessons learnt from this campaign in mind, the main experimental campaign is then described, consisting in cracking tests of eight unscaled beams in pure bending (varying RSF content, Ø/s,eff and concrete cover) and twelve columns subjected to imposed displacement and axial force (varying RSF content, Ø/s,eff and squashing load ratio). The results obtained from the main campaign are presented and discussed, with particular focus on the improvement in cracking behaviour for the beams and columns, and structural stiffness for the columns. They are then compared with the proposed model. The main parameters studied to describe cracking and sectional behaviours of the beam tests are crack spacing, mean steel strain and crack width, while for the column tests these were moment/curvature, stress in rebars and crack with at column embedment. The comparison showed satisfactory agreement between experimental results and model predictions. Moreover, it is pointed out the improvement in cracking behaviour due to the addition of RSF for elements with low reinforcement ratios, elements with low squashing load ratios and for crack width control of elements with large concrete covers, thus representing results with a immediate impact in engineering practice (slab design, tanks, integral structures, etc.). Applications of RSF to actual structures are finally presented. Two cases of elements in pure bending are presented, namely a simple supported beam and a water treatment tank. In both cases the addition of RSF to concrete leads to improvements in cracking behaviour. Then, using the simplified model for the serviceability analysis of columns of jointless structures, the maximum achievable jointless length of typical cases of a bridge and building is obtained. In XIIparticular, it is shown how the limitations of current engineering practice (this is especially the case of buildings) can be increased by considering the actual behaviour of RC supports. Then, the same cases are modified considering the use of RSF, and the improvements both in maximum achievable length and in crack width for a given length and imposed strain at the deck/first floor are shown.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este discurso de ingreso se destacó la importancia de la Mecánica de Materiales y el Modelado Matemático en Biomedicina y, en particular, se mostraron algunas aportaciones relacionadas con el comportamiento funcional de tejidos biológicos. Más en concreto se discutió la importancia de la transdisciplinariedad en la investigación actual y el papel que en esa búsqueda de un lenguaje común entre disciplinas tienen el modelado matemático y la simulación computacional.En particular, en la nueva Biomedicina basada en la evidencia, la interacción transdisciplinar es esencial, como lo demuestran resultados tan evidentes como los dispositivos e implantes inteligentes, las nuevas técnicas de imagen médica, la aparición de órganos artificiales o las crecientemente importantes técnicas de Ingeniería Tisular y Terapias Génica y Celular. Uno de los aspectos de creciente estudio en los últimos años es la epigenética, es decir, el estudio de la influencia del entorno específico de cada individuo en su respuesta biológica. Uno de estos estímulos externos, que se está constatando como fundamental, corresponde a las deformaciones, y ello en todas las escalas: molecular, celular, tisular y orgánica, dando lugar a una nueva subdisciplina: la Mecanobiología de creciente interés. En ella se acoplan los fenómenos mecánicos (movimiento, deformaciones, tensiones,..) con los biológicos (respuesta celular, expresión génica, adaptación tisular, regeneración y morfogénesis orgánica, etc.) y, en general, con otros campos físicos como la bioquímica o la electricidad también acoplados en los procesos de señalización y expresión celular. De nuevo el modelado multiescala y multifísico de estos problemas es esencial en su comprensión última y en el diseño de nuevas estrategias quirúrgicas, terapéuticas o de diagnostico. En este discurso se mostraron los problemas y posibilidades de estas metodologías y su aplicación en problemas tales como el diseño de implantes, la remodelación reparación y morfogénesis óseas, así como en la planificación preoperatoria y cirugía virtual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El aceite de pescado ha sido la principal fuente de grasa incluida en la dieta de salmón Atlántico ya que su uso optimiza el crecimiento y aporta grandes cantidades de ácidos grasos poliinsaturados (PUFA) omega 3, principalmente los ácidos eicosapentaenoico (EPA) y docosahexaenoico (DHA). En los años 90 se utilizaba un 24% de aceite de pescado en los piensos para salmón, sin embargo la escasez del recurso y la presión comercial sobre su demanda por parte de distintos sectores ha dado lugar a una progresiva reducción de su inclusión teniendo la industria como objetivo llegar a utilizar en 2020 tan sólo un 8%. Al reducir los niveles de aceite de pescado disminuye el contenido de EPA y DHA aportado, por lo que se hace necesario diseñar estrategias que permitan maximizar la retención de EPA y DHA en los tejidos del animal. De esta forma, la optimización del uso de antioxidantes para prevenir la peroxidación lipídica de los ácidos grasos poliinsaturados de cadena larga (LC-PUFA), puede ser una estrategia a seguir. Entre los antioxidantes empleados en acuicultura destaca la vitamina E. Aunque el α-tocoferol es el isómero principal de la vitamina E, estudios recientes sugieren que el γ-tocoferol presenta igualmente una potente actividad antioxidante. Sin embargo, hasta la fecha no hay muchos estudios con salmón Atlántico empleando γ-tocoferol como principal isómero añadido en la dieta. Además de su función como antioxidante, en investigaciones recientes la vitamina E ha mostrado capacidad para inducir de manera directa o indirecta la expresión de genes que codifican enzimas implicadas en el metabolismo de los ácidos grasos. Con esta perspectiva el presente trabajo tiene como principal objetivo determinar si la incorporación de 300 ppm de γ-tocoferol a la dieta del salmón da lugar a una mayor capacidad antioxidante en los tejidos del animal, disminuyendo la oxidación lipídica in vivo y afectando tanto a la composición como al metabolismo lipídico. Un total de 180 esguines de salmón Atlántico (Salmo Salar) con un peso inicial de 137,4 ± 1g fueron distribuidos al azar y uniformemente en 6 tanques y fueron alimentados con una de las tres dietas experimentales. Se aportó agua salada a los tanques y la temperatura se mantuvo a 12°C. Las dietas experimentales se formularon para tener: bajo contenido en EPA y DHA (CB); alto en EPA y DHA (CA); y con bajos niveles de EPA y DHA pero con un suplemento de 300 ppm de γ-tocoferol como antioxidante (CB+γtoc). Las dietas fueron suministradas en tanques duplicados durante 14 semanas. Al final del experimento, se sacrificaron 4 peces de cada tanque y se tomaron muestras de hígado y filete izquierdo para realizar el análisis de ácidos grasos y de expresión génica. A pesar de que los peces alimentados con la dieta CB+γtoc presentaron 3 veces más concentración de γ-tocoferol en los tejidos, la administración de esta dieta no tuvo un efecto significativo (P>0.05) sobre la composición de EPA, DHA y ácido araquidónico (ARA) en los tejidos del salmón. Los resultados del análisis de expresión de genes mostraron que la incorporación de 300 ppm de γ-tocoferol dio lugar a una cierta inhibición del metabolismo lipídico tanto de genes relacionados con la β-oxidación como de aquellos relacionados con la síntesis de LC-PUFA. En cuanto al sistema de defensa antioxidante GPx4, los resultados indicaron que no hubo efecto estimulatorio del γ-tocoferol sobre el mismo. Sin embargo, se observó un aumento de omega 3 totales (P<0.05) en el músculo del animal. La incorporación de 300 ppm de γ-tocoferol tuvo un efecto limitado sobre la composición lipídica y un efecto inhibitorio del metabolismo lipídico a nivel de expresión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, y en todo el mundo, hay en desarrollo un muy importante número de proyectos de obras hidráulicas de diversa naturaleza (presas, canales, desaladoras, tanques de tormentas, centrales hidroeléctricas, obras de saneamiento, etc.), donde España es, en muchas ocasiones, el marco de referencia. En este artículo, se presentan algunas de las principales investigaciones en curso en el campo de la modelación física y numérica de la ingeniería de presas, con el objetivo de mejorar el conocimiento de los fenómenos hidráulicos que intervienen en su gestión y desarrollar nuevas herramientas de diseño que permitan dar solución a problemas hidráulicos complejos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto principal del proyecto es describir las instalaciones de la planta de licuefacción de Melkoya (Noruega) y simular con el programa Aspen Plus el tren de licuefacción, que aplica una nueva licencia altamente eficiente para este tipo de plantas. En esta simulación, a partir de la información bibliográfica disponible, se ha realizado un análisis preliminar para determinar el diagrama de flujo y las características esenciales del proceso, incluyendo una estimación de la cantidad y composición del refrigerante necesario en cada etapa, información altamente confidencial por parte de los licenciantes de estas tecnologías. La finalidad del proceso y de la simulación es que el gas natural que entra gaseoso a 10 ºC, salga líquido a – 163 ºC para entrar en los tanques de almacenamiento de la instalación a la espera de ser transportado por buques metaneros. Tras una correcta simulación se realiza un estudio sobre los caudales, temperaturas de los intercambiadores de calor, autoconsumo de los compresores y la curva de enfriamiento del tren de licuefacción. La última parte del proyecto incluye un estudio económico, el cual incluye un análisis de sensibilidad. ABSTRACT The main object of the project is to describe the facilities of the plant of Melkoya's liquefaction (Norway) and to simulate the train of liquefaction with the program Aspen Plus, with the bibliographical available information. This program applies a new highly efficient license for this type of plants. A preliminary analysis has been realized to determine the flow diagram and the essential characteristics of the process. The simulation includes an estimation of the quantity and composition of the cooling needed in every stage. This information is highly confidential on the license of these technologies. In the simulation, the natural gas enters into the cycle as a gas at 10 ºC. Inside it, this gas condenses as a liquid at -163 ºC. After that, it enters into the storage’s tanks waiting its maritime transportation by LNG carriers. Later it realized a study about the correct operations conditions, like flows, temperatures of the heat interchangers, self-consumptions of the compressors and the cooling curve of the liquefaction train. The last part of the project is an economic study which includes a sensitivity analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los procesos relacionados con el almacenamiento y manipulación de productos petrolíferos, conllevan siempre determinados riesgos de incendio que dependen básicamente de las propiedades físicas y químicas de los productos, y hacen indispensable la adopción de importantes medidas de seguridad contra incendios. Esto es debido a que las consecuencias previsibles en caso de la producción y expansión del incendio son tan graves que aconsejan la instalación de medios más potentes de lucha contra incendios, que los simples extintores manuales. En base a ello, el presente proyecto pretende definir y desarrollar una propuesta de diseño del sistema de protección contra incendios en la zona de almacenamiento de una planta de almacenamiento de líquidos petrolíferos. La planta almacena Gasóleo, Gasolina y Queroseno de Aviación en ocho tanques atmosféricos de techo fijo situados en un único cubeto de retención. Se desarrolla un extenso estudio de los requisitos normativos para este tipo de casos, y en consecuencia, se calcula y clasifica el nivel de riesgo intrínseco de incendio en la zona estudiada, a partir de su carga de fuego ponderada y corregida. Además, se muestra la distribución de los tanques en el cubeto, basada en el cálculo de las distancias de seguridad entre cada uno de ellos y con el exterior. A partir de ello, el proyecto se centra en el cálculo de los valores de descarga de agua de refrigeración, requeridos en las boquillas de agua pulverizada e hidrantes exteriores de alrededor de la zona de riesgo; de espuma física para hidrocarburos, en las cámaras de espuma de la parte superior de la envolvente de los tanques, y en los monitores auxiliares de descarga de espuma, de la zona del cubeto de retención. Los objetivos, métodos y bases de cálculo se recogen en la memoria del proyecto. Además se incluye, la planificación temporal con MS Project, de la implementación del proyecto; la elección de los equipos que componen los sistemas, el presupuesto asociado y los planos de distribución de la planta y del flujo de tuberías propuesto. ABSTRACT Fire protection units and equipment are necessary on processes and operations related to storage and handling of petroleum products, because of their flammable and combustible properties. In case a hazard of fire from petroleum products is materialized, huge consequences are to be expected. To reduce losses, facilities should be equipped with appropriate protection. Based on that, this project seeks to define and develop the fire protection system design for a petroleum liquids storage installation. The plant stores Gasoil, Gasoline, and aviation Kerosene in eight fixed roof atmospheric tanks. A complete study of the fire protection regulations is carried out and, as a result, the studied area’s risk level is determined from its fire load density. The calculation of the minimum shell-to-shell spacing of adjacent aboveground storage tanks and external equipment, is also determined for a correct distribution of tanks in the bunded area. Assuming that, the design includes calculations of required discharge of water for spray nozzles and hydrants, and required discharge of foam from foam chambers and foam monitors. Objectives, methodology and calculation basis are presented on the project technical report; which also includes project scheduling with MS. Project software, the selection of system components and equipment, related budget and lay out of installation and piping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis es un estudio analítico y numérico del electrospray. En la configuración más sencilla, un caudal constante del líquido a atomizar, que debe tener una cierta conductividad eléctrica, se inyecta en un medio dieléctrico (un gas u otro líquido inmiscible con el primero) a través de un tubo capilar metálico. Entre este tubo y un electrodo lejano se aplica un voltaje continuo que origina un campo eléctrico en el líquido conductor y en el espacio que lo rodea. El campo eléctrico induce una corriente eléctrica en el líquido, que acumula carga en su superficie, y da lugar a un esfuerzo eléctrico sobre la superficie, que tiende a alargarla en la dirección del campo eléctrico. El líquido forma un menisco en el extremo del tubo capilar cuando el campo eléctrico es suficientemente intenso y el caudal suficientemente pequeño. Las variaciones de presión y los esfuerzos viscosos asociados al movimiento del líquido son despreciables en la mayor parte de este menisco, siendo dominantes los esfuerzos eléctrico y de tensión superficial que actúan sobre la superficie del líquido. En el modo de funcionamiento llamado de conochorro, el balance de estos esfuerzos hace que el menisco adopte una forma cónica (el cono de Taylor) en una región intermedia entre el extremo del tubo y la punta del menisco. La velocidad del líquido aumenta al acercarse al vértice del cono, lo cual propicia que las variaciones de la presión en el líquido generadas por la inercia o por la viscosidad entren en juego, desequilibrando el balance de esfuerzos mencionado antes. Como consecuencia, del vértice del cono sale un delgado chorro de líquido, que transporta la carga eléctrica que se acumula en la superficie. La acción del campo eléctrico tangente a la superficie sobre esta carga origina una tracción eléctrica que tiende a alargar el chorro. Esta tracción no es relevante en el menisco, donde el campo eléctrico tangente a la superficie es muy pequeño, pero se hace importante en el chorro, donde es la causa del movimiento del líquido. Lejos del cono, el chorro puede o bien desarrollar una inestabilidad asimétrica que lo transforma en una espiral (whipping) o bien romperse en un spray de gotas prácticamente monodispersas cargadas eléctricamente. La corriente eléctrica transportada por el líquido es la suma de la corriente de conducción en el interior del líquido y la corriente debida a la convección de la carga acumulada en su superficie. La primera domina en el menisco y la segunda en el chorro lejano, mientras que las dos son comparables en una región intermedia de transferencia de corriente situada al comienzo del chorro aunque aguas abajo de la región de transición cono-chorro, en la que el menisco deja de ser un cono de Taylor. Para un campo exterior dado, la acumulación de carga eléctrica en la superficie del líquido reduce el campo eléctrico en el interior del mismo, que llega a anularse cuando la carga alcanza un estado final de equilibrio. El tiempo característico de este proceso es el tiempo de relajación dieléctrica, que es una propiedad del líquido. Cuando el tiempo de residencia del líquido en la región de transición cono-chorro (o en otra región del campo fluido) es grande frente al tiempo de relajación dieléctrica, la carga superficial sigue una sucesión de estados de equilibrio y apantalla al líquido del campo exterior. Cuando esta condición deja de cumplirse, aparecen efectos de relajación de carga, que se traducen en que el campo exterior penetra en el líquido, a no ser que su constante dieléctrica sea muy alta, en cuyo caso el campo inducido por la carga de polarización evita la entrada del campo exterior en el menisco y en una cierta región del chorro. La carga eléctrica en equilibrio en la superficie de un menisco cónico intensifica el campo eléctrico y determina su variación espacial hasta distancias aguas abajo del menisco del orden de su tamaño. Este campo, calculado por Taylor, es independiente del voltaje aplicado, por lo que las condiciones locales del flujo y el valor de la corriente eléctrica son también independientes del voltaje en tanto los tamaños de las regiones que determinan estas propiedades sean pequeños frente al tamaño del menisco. Los resultados experimentales publicados en la literatura muestran que existe un caudal mínimo para el que el modo cono-chorro que acabamos de describir deja de existir. El valor medio y la desviación típica de la distribución de tamaños de las gotas generadas por un electrospray son mínimos cuando se opera cerca del caudal mínimo. A pesar de que los mecanismos responsables del caudal mínimo han sido muy estudiados, no hay aún una teoría completa del mismo, si bien su existencia parece estar ligada a la aparición de efectos de relajación de carga en la región de transición cono-chorro. En esta tesis, se presentan estimaciones de orden de magnitud, algunas existentes y otras nuevas, que muestran los balances dominantes responsables de las distintas regiones de la estructura asintótica de la solución en varios casos de interés. Cuando la inercia del líquido juega un papel en la transición cono-chorro, los resultados muestran que la región de transferencia de corriente, donde la mayor parte de la corriente pasa a la superficie, está en el chorro aguas abajo de la región de transición cono-chorro. Los efectos de relajación de carga aparecen de forma simultánea en el chorro y la región de transición cuando el caudal se disminuye hasta valores de un cierto orden. Para caudales aún menores, los efectos de relajación de carga se notan en el menisco, en una región grande comparada con la de transición cono-chorro. Cuando el efecto de las fuerzas de viscosidad es dominante en la región de transición, la región de transferencia de corriente está en el chorro pero muy próxima a la región de transición cono-chorro. Al ir disminuyendo el caudal, los efectos de relajación de carga aparecen progresivamente en el chorro, en la región de transición y por último en el menisco. Cuando el caudal es mucho mayor que el mínimo del modo cono-chorro, el menisco deja de ser cónico. El campo eléctrico debido al voltaje aplicado domina en la región de transferencia de corriente, y tanto la corriente eléctrica como el tamaño de las diferentes regiones del problema pasan a depender del voltaje aplicado. Como resultado de esta dependencia, el plano caudal-voltaje se divide en diferentes regiones que se analizan separadamente. Para caudales suficientemente grandes, la inercia del líquido termina dominando frente a las fuerzas de la viscosidad. Estos resultados teóricos se han validado con simulaciones numéricas. Para ello se ha formulado un modelo simplificado del flujo, el campo eléctrico y el transporte de carga en el menisco y el chorro del electrospray. El movimiento del líquido se supone casi unidireccional y se describe usando la aproximación de Cosserat para un chorro esbelto. Esta aproximación, ampliamente usada en la literatura, permite simular con relativa facilidad múltiples casos y cubrir amplios rangos de valores de los parámetros reteniendo los efectos de la viscosidad y la inercia del líquido. Los campos eléctricos dentro y fuera del liquido están acoplados y se calculan sin simplificación alguna usando un método de elementos de contorno. La solución estacionaria del problema se calcula mediante un método iterativo. Para explorar el espacio de los parámetros, se comienza calculando una solución para valores fijos de las propiedades del líquido, el voltaje aplicado y el caudal. A continuación, se usa un método de continuación que permite delinear la frontera del dominio de existencia del modo cono-chorro, donde el método iterativo deja de converger. Cuando el efecto de la inercia del líquido domina en la región de transición cono-chorro, el caudal mínimo para el cual el método iterativo deja de converger es del orden del valor estimado del caudal para el que comienza a haber efectos de relajación de carga en el chorro y el cono. Aunque las simulaciones no convergen por debajo de dicho caudal, el valor de la corriente eléctrica para valores del caudal ligeramente mayores parece ajustarse a las estimaciones para caudales menores, reflejando un posible cambio en los balances aplicables. Por el contrario, cuando las fuerzas viscosas dominan en la región de transición, se pueden obtener soluciones estacionarias para caudales bastante menores que aquel para el que aparecen efectos de relajación de carga en la región de transición cono-chorro. Los resultados numéricos obtenidos para estos pequeños caudales se ajustan perfectamente a las estimaciones de orden de magnitud que se describen en la memoria. Por último, se incluyen como anexos dos estudios teóricos que han surgido de forma natural durante el desarrollo de la tesis. El primero hace referencia a la singularidad en el campo eléctrico que aparece en la línea de contacto entre el líquido y el tubo capilar en la mayoría de las simulaciones. Primero se estudia en qué situaciones el campo eléctrico tiende a infinito en la línea de contacto. Después, se comprueba que dicha singularidad no supone un fallo en la descripción del problema y que además no afecta a la solución lejos de la línea de contacto. También se analiza si los esfuerzos eléctricos infinitamente grandes a los que da lugar dicha singularidad pueden ser compensados por el resto de esfuerzos que actúan en la superficie del líquido. El segundo estudio busca determinar el tamaño de la región de apantallamiento en un chorro de líquido dieléctrico sin carga superficial. En esta región, el campo exterior es compensado parcialmente por el campo que induce la carga de polarización en la superficie del líquido, de forma que en el interior del líquido el campo eléctrico es mucho menor que en el exterior. Una región como ésta aparece en las estimaciones cuando los efectos de relajación de carga son importantes en la región de transferencia de corriente en el chorro. ABSTRACT This aim of this dissertation is a theoretical and numerical analysis of an electrospray. In its most simple configuration, a constant flow rate of the liquid to be atomized, which has to be an electrical conductor, is injected into a dielectric medium (a gas or another inmiscible fluid) through a metallic capillary tube. A constant voltage is applied between this tube and a distant electrode that produces an electric field in the liquid and the surrounding medium. This electric field induces an electric current in the liquid that accumulates charge at its surface and leads to electric stresses that stretch the surface in the direction of the electric field. A meniscus appears on the end of the capillary tube when the electric field is sufficiently high and the flow rate is small. Pressure variations and viscous stresses due to the motion of the liquid are negligible in most of the meniscus, where normal electric and surface tension stresses acting on the surface are dominant. In the so-called cone-jet mode, the balance of these stresses forces the surface to adopt a conical shape -Taylor cone- in a intermediate region between the end of the tube and the tip of the meniscus. When approaching the cone apex, the velocity of the liquid increases and leads to pressure variations that eventually disturb the balance of surfaces tension and electric stresses. A thin jet emerges then from the tip of the meniscus that transports the charge accumulated at its surface. The electric field tangent to the surface of the jet acts on this charge and continuously stretches the jet. This electric force is negligible in the meniscus, where the component of the electric field tangent to the surface is small, but becomes very important in the jet. Far from the cone, the jet can either develop an asymmetrical instability named “whipping”, whereby the jet winds into a spiral, or break into a spray of small, nearly monodisperse, charged droplets. The electric current transported by the liquid has two components, the conduction current in the bulk of the liquid and the convection current due to the transport of the surface charge by the flow. The first component dominates in the meniscus, the second one in the far jet, and both are comparable in a current transfer region located in the jet downstream of the cone-jet transition region where the meniscus ceases to be a Taylor cone. Given an external electric field, the charge that accumulates at the surface of the liquid reduces the electric field inside the liquid, until an equilibrium is reached in which the electric field induced by the surface charge counters the external electric field and shields the liquid from this field. The characteristic time of this process is the electric relaxation time, which is a property of the liquid. When the residence time of the liquid in the cone-jet transition region (or in other region of the flow) is greater than the electric relaxation time, the surface charge follows a succession of equilibrium states and continuously shield the liquid from the external field. When this condition is not satisfied, charge relaxation effects appear and the external field penetrates into the liquid unless the liquid permittivity is large. For very polar liquids, the field due to the polarization charge at the surface prevents the external field from entering the liquid in the cone and in certain region of the jet. The charge at the surface of a conical meniscus intensifies the electric field around the cone, determining its spatial variation up to distances downstream of the apex of the order of the size of the meniscus. This electric field, first computed by Taylor, is independent of the applied voltage. Therefore local flow characteristics and the electric current carried by the jet are also independent of the applied voltage provided the size of the regions that determine these magnitudes are small compared with the size of the meniscus. Many experiments in the literature show the existence of a minimum flow rate below which the cone-jet mode cannot be established. The mean value and the standard deviation of the electrospray droplet size distribution are minimum when the device is operated near the minimum flow rate. There is no complete explanation of the minimum flow rate, even though possible mechanisms have been extensively studied. The existence of a minimum flow rate seems to be connected with the appearance of charge relaxation effects in the transition region. In this dissertation, order of magnitude estimations are worked out that show the dominant balances in the different regions of the asymptotic structure of the solution for different conditions of interest. When the inertia of the liquid plays a role in the cone-jet transition region, the region where most of the electric current is transfered to the surface lies in the jet downstream the cone-jet transition region. When the flow rate decreases to a certain value, charge relaxation effects appear simultaneously in the jet and in the transition region. For smaller values of the flow rate, charge relaxation effects are important in a region of the meniscus larger than the transition region. When viscous forces dominate in the flow in the cone-jet transition region, the current transfer region is located in the jet immediately after the transition region. When flow rate is decreased, charge relaxation effects appears gradually, first in the jet, then in the transition region, and finally in the meniscus. When flow rate is much larger than the cone-jet mode minimum, the meniscus ceases to be a cone. The electric current and the structure of the solution begin to depend on the applied voltage. The flow rate-voltage plane splits into different regions that are analyzed separately. For sufficiently large flow rates, the effect of the inertia of the liquid always becomes greater than the effect of the viscous forces. A set of numerical simulations have been carried out in order to validate the theoretical results. A simplified model of the problem has been devised to compute the flow, the electric field and the surface charge in the meniscus and the jet of an electrospray. The motion of the liquid is assumed to be quasi-unidirectional and described by Cosserat’s approximation for a slender jet. This widely used approximation allows to easily compute multiple configurations and to explore wide ranges of values of the governing parameters, retaining the effects of the viscosity and the inertia of the liquid. Electric fields inside and outside the liquid are coupled and are computed without any simplification using a boundary elements method. The stationary solution of the problem is obtained by means of an iterative method. To explore the parameter space, a solution is first computed for a set of values of the liquid properties, the flow rate and the applied voltage, an then a continuation method is used to find the boundaries of the cone-jet mode domain of existence, where the iterative method ceases to converge. When the inertia of the liquid dominates in the cone-jet transition region, the iterative method ceases to converge for values of the flow rate for which order-of-magnitude estimates first predict charge relaxation effects to be important in the cone and the jet. The electric current computed for values of the flow rate slightly above the minimum for which convergence is obtained seems to agree with estimates worked out for lower flow rates. When viscous forces dominate in the transition region, stationary solutions can be obtained for flow rates significantly smaller than the one for which charge relaxation effects first appear in the transition region. Numerical results obtained for those small values of the flow rate agree with our order of magnitude estimates. Theoretical analyses of two issues that have arisen naturally during the thesis are summarized in two appendices. The first appendix contains a study of the singularity of the electric field that most of the simulations show at the contact line between the liquid and the capillary tube. The electric field near the contact line is analyzed to determine the ranges of geometrical configurations and liquid permittivity where a singularity appears. Further estimates show that this singularity does not entail a failure in the description of the problem and does not affect the solution far from the contact line. The infinite electric stresses that appear at the contact line can be effectively balanced by surface tension. The second appendix contains an analysis of the size and slenderness of the shielded region of a dielectric liquid in the absence of free surface charge. In this region, the external electric field is partially offset by the polarization charge so that the inner electric field is much lower than the outer one. A similar region appears in the estimates when charge relaxation effects are important in the current transfer region.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(ENG) IDPSA (Integrated Deterministic-Probabilistic Safety Assessment) is a family of methods which use tightly coupled probabilistic and deterministic approaches to address respective sources of uncertainties, enabling Risk informed decision making in a consistent manner. The starting point of the IDPSA framework is that safety justification must be based on the coupling of deterministic (consequences) and probabilistic (frequency) considerations to address the mutual interactions between stochastic disturbances (e.g. failures of the equipment, human actions, stochastic physical phenomena) and deterministic response of the plant (i.e. transients). This paper gives a general overview of some IDPSA methods as well as some possible applications to PWR safety analyses (SPA)DPSA (Metodologías Integradas de Análisis Determinista-Probabilista de Seguridad) es un conjunto de métodos que utilizan métodos probabilistas y deterministas estrechamente acoplados para abordar las respectivas fuentes de incertidumbre, permitiendo la toma de decisiones Informada por el Riesgo de forma consistente. El punto de inicio del marco IDPSA es que la justificación de seguridad debe estar basada en el acoplamiento entre consideraciones deterministas (consecuencias) y probabilistas (frecuencia) para abordar la interacción mutua entre perturbaciones estocásticas (como por ejemplo fallos de los equipos, acciones humanas, fenómenos físicos estocásticos) y la respuesta determinista de la planta (como por ejemplo los transitorios). Este artículo da una visión general de algunos métodos IDSPA así como posibles aplicaciones al análisis de seguridad de los PWR.