5 resultados para Lingotamento contínuo

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ideas básicas: reducción del medio contínuo a discreto (elementos, nodos y funciones de forma); definición de un estado "elemental" relacionado con otro "general", mediante el formalismo "matriz de rigidez" y vectores consistentes; método de síntesis de propiedades generales: método directo de la rigidez. Posibilidades de estudio: derivación de la teoría, modelización de problemas reales con F.E.M., desarrollo de programas de ordenador, estudio de métodos numéricos (sistemas ecuacionales, autovalores, convergencia, integración etc.). Contrariamente a lo que se diga el F.E.M. no elimina la necesidad de profundizar en el estudio de la elasticidad, matemáticas, etc. Se trata tan sólo de un instrumento potentísimo que, en principio, permite abordar cualquier problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el artículo se presenta un modelo continuo y determinista de la actividad proliferativa celular. Sobre dicho modelo básico se aplican sucesivos refinamientos que tienen por objeto mejorar el ajuste a datos experimentales existentes. La base experimental del método son los ensayos realizados sobre el pez Cauratus aclimatado a 25 grados con un fotoperiodo de 12 horas durante un mes. Se analizó la actividad proliferativa en las células intestinales observando que aquélla es parcialmente sincronizada. Las medidas efectuadas y su contraste con el método propuesto sugieren que el modelo determinista y contínuo es una aproximación adecuada a la interpretación del ciclo evolutivo. Los resultados numéricos sugieren un comportamiento circadiano también para los tiempos de tránsito en las fases. Las amplitudes se ajustan observando los mínimos de las curvas y la fase se induce mediante análisis armónico de la tendencia general.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Teoría de Plasticidad es el nombre con que se designa a_ la disciplina de la Física que estudia el estado de un cuerpo deformado irreversiblemente, constituyendo la continuación de la bien establecida "Teoría de la Elasticidad". La Teoría de Plasticidad tiene como punto de partida los resultados experimentales sobre el comportamiento macroscópico de materiales sometidos a deformación, principalmente metales, y como objetivos fundamentales de la Teoría: primero, proveer de una descripción de las relaciones tensión-deformación para un material que se encuentra en estado elastoplástico, que explique en la forma mas aproximada posible los resultados experimentales, y segundo desarrollar técnicas de solución para la consecución de la distribución de tensiones en cuerpos permanentemente deformados. En definitiva, el comportamiento plástico de un material está caracterizado por una deformación, en parte irreversible, independiente del tiempo, que comienza a plantearse sólo cuando se ha - conseguido un cierto "nivel de tensión" determinado, nivel que puede variar con el estado de deformación inicial del material, de acuerdo con los resultados experimentales (efecto Bauschinger y endurecimiento por deformación). De acuerdo con ello, en general, son necesarios cuatro requisitos para la formación de una teoría que modele la deformación elastoplástica. Estos son: 1) .- Unas relaciones explícitas entre cargas, tensiones, deformaciones y movimientos que describan el comportamiento del material bajo condiciones elásticas, es decir antes del comienzo de la deformación,plástica. Estas relaciones se plantearán en el primer capítulo. 2) .- Un criterio de plastificación que defina los límites del comportamiento elástico, indicando el nivel de tensión a partir del cual comienza el flujo plástico. Algunos de estos criterios y su definición matemática se plantearán en el capítulo II. 3) .- Una relación entre tensión y deformación después del comienzo del flujo plástico, es decir cuando las deformaciones tienen ambas componentes,elástica y plástica. Este será el objeto del capítulo III. 4).- Un criterio de endurecimiento por deformación que defina la variación de la tensión de límite elástico. Varios de estos criterios se verán en los capítulos IV y V. Una vez establecida la Teoría se realizarán una serie de aplicaciones importantes a materiales especiales como son el suelo (capítulo VII) y hormigón (capítulo VIII), para terminar con el estudio de algunos métodos de resolución de problemas plásticos con ordenador (F.E.M y B.I.E.M) en los últimos capítulos. Citaremos a continuación, muy brevemente, las hipótesis que se plantean en las teorías de plasticidad más comunes, y que se tendrán en cuenta a partir de ahora, siempre que específicamente no se indique lo contrario. a).- Isotropía del material: Las propiedades de éste no varían con la dirección; b) .- Incompresibilidad debido a las dsformaciones plásticas: No hay cambio de volumen como consecuencia de las deformaciones plásticas; e).- Las deformaciones elásticas son pequeñas comparadas con las deformaciones plásticas. Por último, y a título de comentario, diremos que en realidad es absolutamente falso el referirse a "la" Teoría de la Plasticidad, ya que existen varias de estas teorías, y más aún, una multiplicidad enorme en la forma de aplicarlas a los distintos problemas. En cuanto a la resolución de problemas en régimen plástico, y si bien hasta hace relativamente poco tiempo la forma usual de resolver problemas de este tipo era a través de la teoría de líneas de deslizamiento, ya hoy se han desarrollado una gran cantidad de técnicas numéricas, encaminadas a la resolución de problemas con ordenador, siendo naturalmente, ésta última línea más moderna la que se seguirá en los siguientes capítulos. Para empezar, se dará una breve reseña histórica del desarrollo de las teorías de plasticidad, para pasar en el resto del capítulo, a recordar la forma, que para el medio contínuo ideal, tienen las leyes del movimiento, así como los artificios que permiten hablar de esfuerzos interiores al medio en estudio y fijar su solución espacio-temporal, para un material elástico, como una introducción fundamental al estado plástico, y que al mismo tiempo puede servir como índice de la notación a utilizar en el resto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas desarrollados para el cultivo de las microalgas pueden clasificarse en dos grandes grupos, en función de la forma de desarrollo de las poblaciones algales: cultivos en suspensión y cultivos inmovilizados. A su vez, ambos sistemas de cultivo pueden ser abiertos o cerrados, según que las microalgas y el medio de cultivo estén en contacto directo con el aire atmosférico o no. Los cultivos de microalgas inmovilizadas en una superficie que actúa de soporte, forman un 'biofilm' contínuo sobre dicha superficie formando un ecosistema específico de agregación denominado 'biofilm', normalmente constituido por varias especies, incluyendo bacterias, aunque puede haber alguna predominante. Las principales ventajas que tienen los fotobior reactores de biofilm sobre los de células suspendidas son: a) Facilidad para la cosecha, b) Mayor concentración por unidad de volumen de medio, c) reducción o ausencia de células en el efluente, d) reducción en la necesidad de energía y e) mayor eficiencia en el empleo de la radiación recibida por unidad de superficie de suelo. El uso de fotobiorreactores abiertos de microalgas inmovilizadas es relativamente reciente, dirigiéndose los desarrollos en dos direcciones: una que considera el soporte del biofilm fijo, siendo el medio acuoso el que se mueve sobre él y otra que considera el soporte del biofilm móvil en un medio acuático estático o de lento movimiento. Al primero de los tipos pertenece el fotobiorreactor laminar desarrollado por el Grupo de Agroenergética de la UPM (GA-UPM) (patente ES 2 347 515 B2 ), especialmente concebido para la captación del CO2 procedente de emisiones y para la producción de biomasa algal. Otro desarrollo del GA-UPM perteneciente al segundo tipo ha sido un fotobiorreactor de biodisco de eje flotante, que elimina los inconvenientes de los contactores de biodisco tradicionales, ya que no necesita cojinetes de apoyo ni eje rígido y al estar dotado de un propulsor hidrobárico consume muy poca energía, sin limitación técnica en cuanto a la longitud total del eje. (Modelo de Utilidad ES 1 099 707 U). Este fotobiorreactor está especialmente diseñado para la eliminación de nutrientes (N y P) de los efluentes del secundario de las EDAR y también puede utilizarse como un contactor tradicional de biodiscos para eliminación de la materia orgánica de las aguas residuales con indudables ventajas de reducción de costes de instalación y funcionamiento.