1000 resultados para Análisis Matemático
Resumo:
Estudiar las concepciones y obstáculos epistemológicos que han aparecido en el desarrollo histórico de los conceptos de límite y continuidad. Descubrir las concepciones que tienen los alumnos sobre estos dos conceptos. Encontrar las relaciones existentes entre ambas concepciones (históricas y de los alumnos). Analizar la transposición didáctica del saber matemático al saber escolar a través de los textos utilizados en el bachillerato y Curso de Orientación Universitaria y su evolución desde la década de los 50 hasta nuestros días, como posibles instrumentos generadores de las concepciones de los alumnos. Establecimiento de las dos hipótesis de trabajo. Temporalización de la investigación en dos cursos académicos. Curso 94-95: análisis de la transposición didáctica de los conceptos límite y continuidad, análisis de los libros de texto desde los 50ïs con la metodología de Schubring (1987). Elaboración de un precuestionario para conocer las concepciones de los alumnos y posteriormente elaboración del cuestionario definitivo. Curso 95-96 presentación del cuestionario a los alumnos, análisis de los datos. Estudio del desarrollo histórico de los conceptos. Búsqueda de las relaciones existentes entre las concepciones de los alumnos y las históricas. En el cuestionario donde se planteaban situaciones problemáticas referidas a ambos conceptos se pusieron de manifiesto los siguientes aspectos: el criterio más utilizado en la aplicación de límites es el de límite por la derecha o por la izquierda, clasificado como conocimiento escolar. La idea de aproximarse corresponde a las concepciones de Dálembert y Cauchy. El tercer criterio de justificación más utilizado es el de sustituir valores, que correspondería a la concepción de Euler-Lagrange. Para la continuidad, el criterio más usado es el plantear que una función es continua si se puede dibujar su gráfica sin levantar el lápiz del papel, próxima a la concepción intuitivo-geométrica. El segundo criterio - que se manifiesta como erróneo- es el afirmar que una función es continua si esta definida en todo punto. El tercer criterio más usado es próximo a la concepción de Cauchy. La dificultad que entrañan ambos conceptos hace que se presenten muchas respuestas erróneas entre los alumnos. El análisis de los libros de texto muestra diferencias notables entre ellos. Después de un primer periodo donde la atención estaba puesta en el rigor de la definiciones, se continuó con un énfasis en la formalización de la matemática moderna. Superado este periodo los autores tratan de presentar los conceptos conectados con situaciones y apelando a la intuición. Para el límite y la continuidad existe una evolución desde la consideración de ambos conceptos ligados al de función, pasando por un largo periodo en que tienen entidad propia, hasta la última reforma en que se enfatiza el carácter instrumental de los mismos. La transposición didáctica desde el saber matemático al saber contenido en los libros de texto son fuente de las concepciones detectadas en el saber escolar, a través del análisis de las respuestas al cuestionario. Durante el aprendizaje de los citados conceptos, los alumnos desarrollan una serie de concepciones que están relacionadas con las que han surgido en el desarrollo histórico y además aparecen otras inducidas por la propia enseñanza.
Resumo:
Resumen basado en el de la publicación. Resumen en portugués, inglés y francés
Resumo:
En esta tesis, se trata del establecimiento de las bases de análisis plástico de piezas de hormigón armado en servicio y estado último procurando sentar los soportes de funcionamiento que concuerdan con la realidad y normativa vigente. El intento de establecer estas bases, con el máximo rigor para su uso, ha llevado a consecuencias lejanas cualitativas y cuantitativas sobre los modelos elásticos y elastoplásticos en uso,-momento tope ect- que, incluyendo lo complejo del problema plástico que se trata, no adoptan formulaciones adecuadas, o los plantemientos analíticos, no son más coherentes con los resultados obtenidos, en el dimensionado, que otros de base más sencilla, limitándose a estrategias de análisis de sección basadas en condicones de deformación -como serían los métodos de Cross y Matrioficiales- , estableciendose un claro divorcio entre mecanismo de cálculo y geometría. Este trabajo, intenta abrir una puerta al análisis de la estructura bajo condiciones puramente de deformación y solo supone en este campo el primer paso de un largo cemino que iría de la pieza a la estructura y de ésta al edificio posteriormente, quedando así sentados los criterios básicos para el análisis plástico global de estructuras. Todo ello a partir de la imposibilidad de avanzar en el análisis de secciones, si no es penetrando en el proceso de plastificación de las mismas y el de sus armaduras, así como el de las zonas de afección de las diferentes plastificaciones locales. La inclusión de esta concepción de análisis, en lo referente a obtener gráficos reales de respuesta interna de la pieza, es posible gracias al uso, en este caso del miniordenador 9825-HP utilizado, en donde se aplica de forma reiterada los consabidos métodos de discretización elementales con los cuales se obtienen decorosas precisiones sobre los resultados. Este estudio, que en ocasiones, alude a normas, más discribir un comportamiento que sentar doctrina. Como se ha realizado solo par forjados se añade una colección de ábacos de utilización practica de éstos. Naturalmente las bases establecidas, se hacen extensivas a cualquier pieza de directriz recta de hormigón armado, en donde geometría y materiales -hormigón y acero- pueden ser variables y están contempladas dentro de programas usados. En el terreno de las conclusiones, los forjados no deben ser asimilados a vigas, como tradicionalmente venía haciendose, ya que los métodos de relajación empledos no coinciden con la realidad. Quedando estos límites plenamente establecidos en el desarrollo del trabajo. Se considera el tema relevante en lo reeferente a un análisis de la estructura tendente a un aprovechamento más adecuado de los materiales en un supuesto futuro de escasez de materia prima, quizás no lejano, y sobretodo en la posible aproximación al modelo matemático, que si bien normativa y bibliografía aludían constantemente, nunca precisaron las bases de su comportamiento.
Resumo:
El objetivo principal del proyecto es la realización de una aplicación en el programa MATLAB. En primer lugar, realizaremos un estudio teórico relativo al tema de nuestro proyecto. En nuestro caso como el tema es Imagen y Televisión, explicaremos de forma teórica la información principal acerca del Tratamiento Digital de la Imagen. Una vez conocida las técnicas principales utilizadas en el tratamiento digital, realizaremos un estudio exhaustivo en las técnicas actuales que existen acerca del análisis de imágenes. Daremos una breve explicación mostrando en qué consiste esta técnica, los diferentes pasos que se llevan a cabo en una imagen para su análisis, explicando brevemente cada unos de ellos y enumerando algunas técnicas para la realización de cada una de ellas. Tras esta primera parte, nos centraremos en las técnicas de correlación de imágenes (DIC). Explicaremos como han surgido estas técnicas, cual son sus principales conceptos, sus inicios y las ventajas e inconvenientes que tienen. Dentro de las diferentes técnicas de correlación de imágenes, explicaremos de forma detallada la correspondencia por áreas, ya que es la técnica que vamos a utilizar para la realización del proyecto. Explicaremos en qué consiste, y desarrollaremos teóricamente cual son los pasos que se deben realizar en las imágenes para realizar esta técnica. Explicaremos cual es su terminología, y cuáles son los posibles defectos que puede tener esta técnica. Finalmente, una vez estudiada la teoría, realizaremos una sencilla aplicación que nos permita evaluar y encontrar las diferencias en una secuencia de imágenes. El programa utilizado para este proyecto es MATLAB, que es un programa matemático, utilizado enormemente en el ámbito de la ingeniería. Mediante esta aplicación obtendremos dos figuras, una de ellas donde veremos los vectores de movimiento que existen entre las dos imágenes y la segunda, donde obtendremos el factor de correlación que hay entre las dos imágenes. ABSTRACT OF MY PROJECT The main objective of the project is the development of an application in MATLAB program. Firstly carry out a theoretical study on the topic of our project. In our case as the theme is Picture and Television, we explain the main information about Digital Image Processing. Once known the main techniques used in digital images, we will make a study on current techniques that exist about image analysis. We will give a brief explanation showing what this technique is, the different steps that are performed on an image for analysis, briefly explaining each of them and listing some techniques for performing each. After this first part, we will focus on the techniques of image correlation (DIC). We explain how these techniques have emerged, which are the main concepts, the beginning and the advantages and disadvantages they have. There are different image correlation techniques. We will explain in detail the correspondence areas, as it is the technique that we will use for the project. Explain what it is, which is theoretically and we develop steps that must be performed on the images for this technique. We explain what their terminology is, and what are the possible defects that may have this technique. Finally, having explored the theory images, we will make a simple application that allows us to evaluate and find differences in a sequence of images. The program used for this project is MATLAB, a mathematical program, widely used in the field of engineering. Using this application will get two figures, one where we will see the motion vectors between the two images and the second where we get the correlation factor between the two images.
Resumo:
En este trabajo se proponen estrategias de análisis y de modelado optimizadas para abordar el estudio sísmico de puentes atirantados que mantienen sus materiales en rango elástico, ofreciendo al diseñador un rango de errores esperables en cada caso en función del tipo de torre de atirantamiento, luz principal y terreno de cimentación, entre otras características. Para ello, se ha realizado un estudio comparativo de diferentes procedimientos de cálculo dinámico aplicados al análisis sísmico elástico de un gran número de puentes atirantados, y se han relacionado las desviaciones observadas con las simplificaciones introducidas en el planteamiento matemático de los mismos. Entre los métodos considerados se encuentra el cálculo modal espectral, el análisis modal dinámico y la integración directa del sistema acoplado de la dinámica. Además, el efecto del impacto del tablero contra las torres en dirección transversal ha sido analizado por medio de elementos de contacto. Se ha concluido que el cálculo modal espectral ofrece resultados que están del lado de la inseguridad, alrededor de de un 20%, respecto del cálculo modal dinámico de referencia, el cual es el más preciso
Resumo:
El estudio de materiales, especialmente biológicos, por medios no destructivos está adquiriendo una importancia creciente tanto en las aplicaciones científicas como industriales. Las ventajas económicas de los métodos no destructivos son múltiples. Existen numerosos procedimientos físicos capaces de extraer información detallada de las superficie de la madera con escaso o nulo tratamiento previo y mínima intrusión en el material. Entre los diversos métodos destacan las técnicas ópticas y las acústicas por su gran versatilidad, relativa sencillez y bajo coste. Esta tesis pretende establecer desde la aplicación de principios simples de física, de medición directa y superficial, a través del desarrollo de los algoritmos de decisión mas adecuados basados en la estadística, unas soluciones tecnológicas simples y en esencia, de coste mínimo, para su posible aplicación en la determinación de la especie y los defectos superficiales de la madera de cada muestra tratando, en la medida de lo posible, no alterar su geometría de trabajo. Los análisis desarrollados han sido los tres siguientes: El primer método óptico utiliza las propiedades de la luz dispersada por la superficie de la madera cuando es iluminada por un laser difuso. Esta dispersión produce un moteado luminoso (speckle) cuyas propiedades estadísticas permiten extraer propiedades muy precisas de la estructura tanto microscópica como macroscópica de la madera. El análisis de las propiedades espectrales de la luz laser dispersada genera ciertos patrones mas o menos regulares relacionados con la estructura anatómica, composición, procesado y textura superficial de la madera bajo estudio que ponen de manifiesto características del material o de la calidad de los procesos a los que ha sido sometido. El uso de este tipo de láseres implica también la posibilidad de realizar monitorizaciones de procesos industriales en tiempo real y a distancia sin interferir con otros sensores. La segunda técnica óptica que emplearemos hace uso del estudio estadístico y matemático de las propiedades de las imágenes digitales obtenidas de la superficie de la madera a través de un sistema de scanner de alta resolución. Después de aislar los detalles mas relevantes de las imágenes, diversos algoritmos de clasificacion automatica se encargan de generar bases de datos con las diversas especies de maderas a las que pertenecían las imágenes, junto con los márgenes de error de tales clasificaciones. Una parte fundamental de las herramientas de clasificacion se basa en el estudio preciso de las bandas de color de las diversas maderas. Finalmente, numerosas técnicas acústicas, tales como el análisis de pulsos por impacto acústico, permiten complementar y afinar los resultados obtenidos con los métodos ópticos descritos, identificando estructuras superficiales y profundas en la madera así como patologías o deformaciones, aspectos de especial utilidad en usos de la madera en estructuras. La utilidad de estas técnicas esta mas que demostrada en el campo industrial aun cuando su aplicación carece de la suficiente expansión debido a sus altos costes y falta de normalización de los procesos, lo cual hace que cada análisis no sea comparable con su teórico equivalente de mercado. En la actualidad gran parte de los esfuerzos de investigación tienden a dar por supuesto que la diferenciación entre especies es un mecanismo de reconocimiento propio del ser humano y concentran las tecnologías en la definición de parámetros físicos (módulos de elasticidad, conductividad eléctrica o acústica, etc.), utilizando aparatos muy costosos y en muchos casos complejos en su aplicación de campo. Abstract The study of materials, especially the biological ones, by non-destructive techniques is becoming increasingly important in both scientific and industrial applications. The economic advantages of non-destructive methods are multiple and clear due to the related costs and resources necessaries. There are many physical processes capable of extracting detailed information on the wood surface with little or no previous treatment and minimal intrusion into the material. Among the various methods stand out acoustic and optical techniques for their great versatility, relative simplicity and low cost. This thesis aims to establish from the application of simple principles of physics, surface direct measurement and through the development of the more appropriate decision algorithms based on statistics, a simple technological solutions with the minimum cost for possible application in determining the species and the wood surface defects of each sample. Looking for a reasonable accuracy without altering their work-location or properties is the main objetive. There are three different work lines: Empirical characterization of wood surfaces by means of iterative autocorrelation of laser speckle patterns: A simple and inexpensive method for the qualitative characterization of wood surfaces is presented. it is based on the iterative autocorrelation of laser speckle patterns produced by diffuse laser illumination of the wood surfaces. The method exploits the high spatial frequency content of speckle images. A similar approach with raw conventional photographs taken with ordinary light would be very difficult. A few iterations of the algorithm are necessary, typically three or four, in order to visualize the most important periodic features of the surface. The processed patterns help in the study of surface parameters, to design new scattering models and to classify the wood species. Fractal-based image enhancement techniques inspired by differential interference contrast microscopy: Differential interference contrast microscopy is a very powerful optical technique for microscopic imaging. Inspired by the physics of this type of microscope, we have developed a series of image processing algorithms aimed at the magnification, noise reduction, contrast enhancement and tissue analysis of biological samples. These algorithms use fractal convolution schemes which provide fast and accurate results with a performance comparable to the best present image enhancement algorithms. These techniques can be used as post processing tools for advanced microscopy or as a means to improve the performance of less expensive visualization instruments. Several examples of the use of these algorithms to visualize microscopic images of raw pine wood samples with a simple desktop scanner are provided. Wood species identification using stress-wave analysis in the audible range: Stress-wave analysis is a powerful and flexible technique to study mechanical properties of many materials. We present a simple technique to obtain information about the species of wood samples using stress-wave sounds in the audible range generated by collision with a small pendulum. Stress-wave analysis has been used for flaw detection and quality control for decades, but its use for material identification and classification is less cited in the literature. Accurate wood species identification is a time consuming task for highly trained human experts. For this reason, the development of cost effective techniques for automatic wood classification is a desirable goal. Our proposed approach is fully non-invasive and non-destructive, reducing significantly the cost and complexity of the identification and classification process.
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
El presente trabajo aborda el estudio del comportamiento dinámico de tableros de puentes pérgola de ferrocarril en líneas de alta velocidad. El rápido aumento de este tipo de vías tanto en España como en Europa, ha propiciado la aparición de un gran número de condicionantes que en muchas ocasiones requieren la adopción de tipologías de puentes no habituales que difieren sensiblemente del puente tipo viga. En este sentido, los puentes pérgola, debido a sus características muy específicas y a su economía, han sido empleados con profusión. El tablero de un puente pérgola es una estructura de marcado carácter bidimensional que las cargas recorren de forma esviada. De dicha forma, resulta una tipología de tablero cuyo comportamiento dista notablemente del comportamiento unidimensional de las estructuras que han servido de base para la elaboración de la normativa actual de acciones de ferrocarril, y de la mayoría de los problemas planteados en la literatura especializada. Dada la escasez documental hallada, se ha planteado un alcance amplio, que trata de sentar las bases sobre las que desarrollar el estudio presente y futuro del tema, tratando de orientar la concepción y el diseño de los tableros de puentes pérgola destinados a líneas de ferrocarril de alta velocidad. Así, el presente trabajo aborda desde el estudio del fundamento teórico-matemático del problema dinámico analizado, hasta el análisis numérico del tablero de un puente pérgola real, pasando por un estudio de la influencia de los principales parámetros del tablero de un puente pérgola en su comportamiento dinámico. Dicho planteamiento ha permitido obtener una serie de conclusiones relevantes acerca del comportamiento dinámico de los tableros de puentes pérgola, que facilitan la labor de encaje y dimensionamiento de las mismas. Asimismo, se ha evaluado la posibilidad de obtener una respuesta dinámica deficiente para sus condiciones de trabajo actuales, realizando una serie de recomendaciones relacionadas con el diseño dinámico de esta tipología de estructuras.
Resumo:
El presente proyecto pretende mostrar las posibilidades de la recarga artificial como elemento de gestión de los recursos de agua subterránea del acuífero aluvial del río Llobregat, en su sector de la Cubeta de Sant Andreu de la Barca (Barcelona), el cual es fuente de abastecimiento urbano, agrícola e industrial del entorno de Sant Andreu de la Barca. Igualmente, se revisa la efectividad de la aplicación de dicha técnica que se practica actualmente. Hace años, las condiciones naturales del río hacían posible la recarga natural de la Cubeta, pero la implantación de industrias en la zona y la regulación mediante la presa de La Baells desde el año 1976, han originado cambios en el comportamiento natural del acuífero, que se han manifestado básicamente en una disminución de la recarga natural como consecuencia de la impermeabilización de los suelos originada por la urbanización de los mismos. Se ha producido también un fenómeno de colmatación del lecho del río, al dificultarse la removilización de los materiales finos depositados en el fondo del cauce, produciendo también una disminución de la recarga al acuífero a través del lecho. Por último, la mayor demanda de suministro por parte del sector industrial ha influido negativamente en el almacenamiento del acuífero. Desde hace décadas, se lleva efectuando una recarga artificial en el lecho del río para tratar de paliar en lo posible estos efectos perjudiciales. La misma se efectúa mediante dos sistemas distintos: escarificando el lecho del río para aumentar su capacidad de infiltración, y mediante la utilización de balsas de recarga, a través de las cuales se infiltra el agua en el acuífero. El objetivo de este proyecto es analizar el efecto actual que la recarga mediante balsas está teniendo sobre el acuífero. Para ello, se utilizarán, entre otras técnicas, la elaboración de un modelo matemático con el que poder simular el efecto de la recarga. VIII ABSTRACT This project aims to show the possibilities of artificial recharge as groundwater resources management element in the alluvial aquifer of the Llobregat River, in the sector of the Basin of Sant Andreu de la Barca (Barcelona), which is a source of urban, agricultural and industrial supply of the Sant Andreu de la Barca area. Too, the effectiveness of the current implementation of this technique is reviewed. Years ago, natural river conditions made possible the natural recharge of the aquifer, but the establishment of industries in the area and the river regulation by the la Baells dam since 1976, have led to changes in the natural behavior of the aquifer, which basically are a decrease in natural recharge, because the soil has become impervious, due to land urbanization. There has been also a phenomenon of clogging of the river bed, caused by the difficult in the remobilization of fine materials deposited on the river bed, which has produced a decrease in the groundwater recharge through the river. Finally, the increase in water demand by the industrial sector, has diminished aquifer storage. For decades, artificial recharge in the river bed has been practiced to alleviate negative effects. It is done by two different systems: scratching the river bed to increase its infiltration capacity, and using recharge ponds, through which water infiltrates into the aquifer. The objective of this project is to analyze the current effect that recharge by ponds is having in the aquifer. Among other techniques, mathematical modeling has been used for simulating the effect of artificial recharge in the aquifer.
Resumo:
El Método de los Elementos Finitos ha demostrado ser una poderosa herramienta para el análisis de problemas complejos en Ingeniería Estructural, tales como la resolución de estructuras cuyos materiales son susceptibles de plastificación, por ejemplo. En cualquier caso, tal éxito sólo es posible cuando el modelo elegido de comportamiento corresponde a la realidad experimental; siendo éste uno de los problemas aún no resueltos para el hormigón por no existir modelos suficientemente generales que predigan su comportamiento dentro de las teorías de la Mecánica del Continuo. En este trabajo se presenta un modelo para el estudio de la fisuración en el hormigón dentro de un contexto matemático análogo al utilizado en la Teoría de la Plasticidad; de manera que los esquemas utilizados en el M.E.F. para la implementación de ésta siguen siendo válidos. El resultado es un método para el análisis de estructuras de hormigón que recoge el complejo fenómeno de la fisuración con relativa sencillez. También son presentados algunos ejemplos resueltos con un programa de ordenador que implementa dicho modelo dentro de las técnicas del M.E.F.
Resumo:
El proyecto tiene como objetivo el estudio de siete Sistemas Dinámicos, yendo de los que son paradigma de Caos a los más complejos, y sus posibles aplicaciones en comunicaciones privadas, bioingeniería y comunicaciones ópticas. El conjunto de sistemas seleccionados incluye algunos ejemplos paradigmáticos de Dinámicas Caóticas, así como nuevas propuestas, tanto de do sistemas básicos como de un sistema que tiene soluciones más complejas, nunca antes estudiados. Se logrará, de esta manera, realizar un completo recorrido desde los osciladores no-lineales más simples (como el de Van Der Pol), hasta los sistemas de mayor complejidad (como son las dinámicas hipercaóticas). El estudio consiste, en primer lugar, en identificar los métodos de análisis específicos del Caos, que permiten poner de manifiesto su carácter y propiedades (a lo que se dedicará el capítulo 1). Tras ello (Capítulo 2 y 3), se desarrollan, estudian y analizan los sistemas mediante simulaciones numéricas de la dinámica de los citados sistemas utilizando el software matemático MATLAB. En una segunda parte (que abarca la primera mitad del Capítulo 4), se implementan los circuitos electrónicos de los citados sistemas, y se simula su comportamiento mediante un software profesional. En una tercera parte (coincidente con la segunda mitad del Capítulo 4 y el Capítulo 5 completo), se construyen físicamente los sistemas fundamentales y sus extensiones, con el objetivo de caracterizar su comportamiento. Además, se desarrolla una aplicación software con entorno gráfico para el análisis sistemático de las dinámicas objeto de estudio. Finalmente, y con el objetivo de aplicar los Sistemas Dinámicos caóticos tanto a Comunicaciones Seguras como a Bioingeniería, este proyecto presenta un estudio de los citados sistemas para su uso en Comunicaciones Seguras, en el capítulo 6. Por otro lado, el oscilador de Van Der Pol no sólo es un sistema paradigma de Caos por la riqueza de su dinámica caótica, sino también por su interés en la simulación del corazón humano tanto en régimen regular, como en régimen caótico. Este análisis se desarrolla en el Capítulo 3.
Resumo:
El objetivo de este trabajo es realizar un estudio del comportamiento de un fluido en flujo laminar. En primer lugar se realizará una breve introducción Histórica, con el fin de situar al lector en la época donde suceden los acontecimientos más importantes relativos a la mecánica de fluidos. Se presentarán a las figuras más importantes de la mecánica de fluidos moderna, como Sir Gabriel Stokes o Osborne Reynolds, así como los acontecimientos más importantes. A continuación se expondran las ecuaciones que rigen el comportamiento de un fluido, las ecuaciones de Navier-Stokes y la ecuación de Reynolds, con el objetivo de ayudar al lector a entender los análisis posteriores que se realizarán sobre dichas ecuaciones. En tercer lugar se analizará la ecuación de Reynolds, la existencia y unicidad de soluciones, para seguidamente, realizar una simulación del problema. Dicha simulación se ha realizado en un script, bajo la herramienta Matlab, se explicará como se ha realizado la simulación y se expondrán ejemplos de los casos de un fluido compresible y uno incompresible para diversas ecuaciones. Seguidamente se describe el fenómeno de la capa límite y se explica con un ejemplo en un fluido compresible. Para finalizar se exponen las conclusiones obtenidas en la realización de este trabajo.
Resumo:
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.
Resumo:
En este estudio, englobado dentro del campo de la investigación operacional en aeropuertos, se considera el problema de la optimización de la secuencia de descontaminación de nieve de los tramos que componen el área de maniobras de un aeropuerto, denominado RM-AM. Este problema se enfrenta a la optimización de recursos limitados para retirar la nieve de las calles de rodadura y pistas, dejándolas en un estado aceptable para la operación de aeronaves. El campo de vuelos se divide en subconjuntos de tramos significativos para la operación y se establecen tiempos objetivo de apertura al tráfico de aeronaves. Se desarrollan varios algoritmos matemáticos en los que se proponen distintas funciones objetivo, como son la hora de finalización del proceso, la suma de las horas de finalización de cada tramo, o el retraso entre la hora estimada y la hora de finalización. Durante este proceso, se van introduciendo restricciones operativas relativas al cumplimiento de objetivos operativos parciales aplicados a las zonas de especial interés, o relativas a la operación de los equipos de descontaminación. El problema se resuelve mediante optimización basada en programación lineal. Los resultados de las pruebas computacionales se hacen sobre cinco modelos de área de maniobras en los que va creciendo la complejidad y el tamaño. Se comparan las prestaciones de los distintos algoritmos. Una vez definido el modelo matemático para la optiamización, se propone una metodología estructurada para abordar dicho problema para cualquier área de manobras. Se define una estrategia en la operación. Se acomete el área de maniobras por zonas, con la condición de que los subconjuntos de tramos significativos queden englobados dentro de una sola de estas zonas. El problema se resuelve mediante un proceso iterativo de optimización aplicado sucesivamente a las zonas que componen el área de maniobras durante cada iteración. Se analiza la repercusión de los resultados en los procesos DMAN, AMAN y TP, para la integración de los resultados en el cálculo de TSAT y EBIT. El método se particulariza para el caso del área de maniobras del Aeropuerto Adolfo Suárez Madrid Barajas. ABSTRACT This study, which lies within the field of operations research in airports, considers the optimisation of the sequence for clearing snow from stretches of the manoeuvring area of an airport, known as RM-AM. This issue involves the optimisation of limited resources to remove snow from taxiways and runways thereby leaving them in an acceptable condition for operating aircraft. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are established during which these are open to aircraft traffic. The study contains several mathematical models each with different functions, such as the end time of the process, the sum of the end times of each stretch, and gap between the estimated and the real end times. During this process, we introduce different operating restrictions on partial fulfilment of the operational targets as applied to zones of special interest, or relating to the operation of the snow-clearing machines. The problem is solved by optimisation based on linear programming. Computational tests are carried out on five distinct models of the manoeuvring area, which cover increasingly complex situations and larger areas. The different algorithms are then compared to one other. Having defined the mathematical model for the optimisation, we then set out a structured methodology to deal with any type of manoeuvring area. In other words, we define an operational strategy. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are set at which these are to be open to aircraft traffic. The manoeuvring area is also divided into zones, with the condition that the subsets of significant stretches lie within just one of these zones. The problem is solved by an iterative optimisation process based on linear programming applied successively to the zones that make up the manoeuvring area during each iteration. The impact of the results on DMAN, AMAN and TP processes is analysed for their integration into the calculation of TSAT and EBIT. The method is particularized for the case of the manoeuvring area of Adolfo Suarez Madrid - Barajas Airport.
Resumo:
El presente trabajo denominado “Modelo simplificado de neumático de automóvil en elementos finitos para análisis transitorio de las estructuras de los vehículos” ha sido elaborado en la cátedra de Transportes de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Su principal objetivo es el modelado y estudio de un neumático mediante el programa de elementos finitos Ansys, con el fin de obtener datos fiables acerca de su comportamiento bajo distintas situaciones. Para ello, en primer lugar se han estudiado los distintos componentes que conforman los neumáticos, poniendo especial énfasis en los materiales, que son de vital importancia para el desarrollo del trabajo. Posteriormente, se ha analizado el fundamento matemático que subyace en los programas comerciales de elementos finitos, adquiriendo una mayor seguridad en el uso de éstos, así como un mejor conocimiento de las limitaciones que presentan. Básicamente, el método matemático de los elementos finitos (MEF) consiste en la discretización de problemas continuos para resolver problemas complejos, algo que por los métodos tradicionales sería inabordable con ese grado de precisión debido a la cantidad de variables manejadas. Es ampliamente utilizado hoy en día, y cada vez más, para resolver problemas de distintas disciplinas de la ingeniería como la Mecánica del Sólido, la Mecánica de Fluidos o el Electromagnetismo. Por otro lado, como los neumáticos son un sistema complejo, el estudio de su comportamiento ha supuesto y supone un desafío importante tanto para los propios fabricantes, como para las marcas de vehículos y, en el ámbito de este proyecto, para el equipo Upm Racing. En este Trabajo Fin de Grado se han investigado los distintos modelos de neumático que existen, los cuales según su fundamento matemático pueden ser clasificados en: - Modelos analíticos - Modelos empíricos - Modelos de elementos finitos Con la intención de desarrollar un modelo novedoso de elementos finitos, se ha puesto especial hincapié en conocer las distintas posibilidades para el modelizado de neumáticos, revisando una gran cantidad de publicaciones llevadas a cabo en los ámbitos académico y empresarial. Después de toda esta fase introductoria y de recogida de información se ha procedido a la realización del modelo. Éste tiene tres fases claramente diferenciadas que son: - Pre-procesado - Solución - Post-procesado La fase de pre-procesado comprende toda la caracterización del modelo real al modelo matemático. Para ello es necesario definir los materiales, la estructura de los refuerzos, la presión del aire, la llanta o las propiedades del contacto neumático-suelo. Además se lleva a cabo el mallado del modelo, que es la discretización de dicho modelo para después ser resuelto por los algoritmos del programa. Este mallado es sumamente importante puesto que en problemas altamente no-lineales como éste, una malla no adecuada puede dar lugar a conflictos en la resolución de los sistemas de ecuaciones, originando errores en la resolución. Otro aspecto que se ha de incluir en esta fase es la definición de las condiciones de contorno, que son aquellas condiciones impuestas al sistema que definen el estado inicial del éste. Un ejemplo en resolución de estructuras podría ser la imposición de giros y desplazamientos nulos en el extremo de una viga encontrarse empotrado en este punto. La siguiente fase es la de solución del modelo. En ella se aplican las cargas que se desean al sistema. Las principales que se han llevado a cabo han sido: desplazamientos del eje del neumático, rodadura del neumático con aceleración constante y rodadura del neumático con velocidad constante. La última fase es la de post-procesado. En esta etapa se analizan los resultados proporcionados por la resolución con el fin de obtener los datos de comportamiento del neumático que se deseen. Se han estudiado principalmente tres variables que se consideran de suma importancia: - Rigidez radial estática - Características de la huella de contacto - Coeficiente de resistencia a la rodadura Seguidamente, se presentan las conclusiones generales de estos resultados, reflexionando sobre los valores obtenidos, así como sobre los problemas surgidos durante la realización del trabajo. Además, se realiza una valoración de los impactos que puede suponer a nivel económico, social y medioambiental. Por último, se ha elaborado la planificación y presupuesto del proyecto para plasmar los tiempos de trabajo y sus costos. Además, se han propuesto líneas futuras con las que avanzar y/o completar este trabajo.