880 resultados para U30 Métodos de investigación


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las conferencias presentadas durante la Jornada Técnica sobre Avances en investigación aplicada en seguridad hidráulica de presas organizada por el Centro de Estudios Hidrográficos del CEDEX y la Universidad Politécnica de Madrid el mes de junio de 2013 versan sobre la mejora de la seguridad hidráulica de las presas, una materia de especial importancia en nuestro país (habida cuenta del elevado número de infraestructuras de regulación en servicio y de su antigüedad media) y constituye una tarea en la que tanto el CEDEX como la Universidad Politécnica de Madrid han trabajado activamente en los últimos años. El Centro Internacional de Métodos Numéricos en Ingeniería (CIMNE) es un centro de investigación dependiente del Gobierno de Cataluña y de la Universidad Politécnica de Cataluña creado en 1987. Su principal actividad es el desarrollo y aplicación de métodos numéricos innovadores para resolver problemas prácticos en diversos campos de la ingeniería, y se desarrolla fundamentalmente en el marco de proyectos de investigación nacionales e internacionales. En los últimos años el centro ha participado en diversos proyectos relacionados con la seguridad de presas, fundamentalmente hidráulica, pero también estructural, en cooperación con diversas empresas y organismos públicos de investigación como el CEDEX y la UPM. La presente comunicación describe brevemente los objetivos principales de los mencionados proyectos, haciendo hincapié en cómo la modelación numérica ha contribuido a alcanzarlos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La educación y los entornos educativos están en constante evolución. Tanto alumnos como educadores cambian de hábitos, de maneras de aprender, de gustos, de dispositivos que manejan y de aplicaciones que usan regularmente entre otras cosas. Todos estos cambios vienen acompañados y fomentados en gran medida por la evolución paralela que experimenta la tecnología, tanto software en los programas utilizados, como hardware en los dispositivos y capacidades de éstos. La educación debe también adaptarse a estos cambios, tanto personales como tecnológicos y sacar el mayor provecho de ellos. El uso de Sistemas de Gestión del Aprendizaje está muy extendido en todos los centros educativos. Estos sistemas poseen un gran número de características y funcionalidades que permiten desde la aplicación de un modelo didáctico totalmente tradicional en el que el profesor imparte un contenido y los alumnos lo reciben a uno totalmente innovador en el que ocurren procesos totalmente diferentes. Por otro lado, el potencial que ofrecen los recursos multimedia no ha sido completamente aprovechado en la educación y supone una gran oportunidad. Esta tesis doctoral propone un conjunto de métodos y herramientas para la creación y el uso de recursos multimedia en la educación. Para ello el desarrollo de esta tesis parte de la definición de un modelo didáctico social, colaborativo y centrado en el alumno que servirá de hilo conductor y que integrará los diferentes y métodos y herramientas estudiados y desarrollados. En un primer paso se identifican varias herramientas y métodos para el aula, tales son la grabación de clases, donde se crea y posteriormente se mejora un carrito portátil de grabación que da muy buen resultado, las herramientas de grabación de screencast y la videoconferencia. Estas herramientas además se integran en una plataforma colaborativa dando lugar a una arquitectura completa y escalable que permite la realización de dichas actividades y la interconexión sencilla con el Sistema de Gestión del Aprendizaje. A continuación y ya en un entorno totalmente online se desarrolla una nueva plataforma de e-learning llamada Virtual Science Hub (ViSH) que consta de cuatro funcionalidades principales, red social, videoconferencia, repositorio educativo y herramienta de autor. En esta plataforma se aplicaron técnicas de recomendación proactiva tanto de recursos educativos como de otros usuarios similares. Por último se validó el modelo educativo completo usando algunas de las herramientas identificadas y desarrolladas en dos escenarios diferentes con gran éxito. Finalmente, esta tesis discute las conclusiones obtenidas a lo largo de la extensa investigación llevada a cabo y que ha propiciado la consecución de una buena base teórica y práctica para la creación de herramientas y métodos para la generación y el uso de recursos multimedia en la educación. ABSTRACT Education and learning environments are constantly evolving. Students and educators change the things their habits, their ways of learning, the things they like or the devices and applications that they use regularly among other things. All these changes are accompanied and fostered by the parallel evolution that technology experiences, both in the software programs used as in the hardware and capabilities of these devices. Education must also adapt to these changes, both personal and technological and get the most out of them. Learning Management Systems are widely used in all educational centers. These systems have a large number of features and functionalities. They allow from the implementation of a traditional teaching model in which the teacher gives content and students receive it to one absolutely innovative teaching model where totally different processes occur. Furthermore, the potential of multimedia resources has not been fully exploited in education and can be a great opportunity. This thesis proposes a set of methods and tools for the creation and use of multimedia in education. The development of this thesis starts with the definition of a social, collaborative and learner-centered model, that serves as a common thread and that integrates different tools and methods studied and developed. In a first step, several tools and methods for the classroom are identified, such as recording, where a portable kit is created and then improved giving very good results, screencast recording and videoconferencing. These tools also are integrated into a collaborative platform resulting in a complete, scalable architecture that enables the execution of such activities and a simple interconnection with the Learning Management System. In an fully online environment a new e-learning platform called Virtual Science Hub (ViSH) is created. It consists of four main features that combine and complement each other, social network, videoconferencing, educational repository and authoring tool. In this platform proactive recommendation of both educational resources and similar users is applied. In a last step the entire educational model using some of the tools identified and developed is successfully validated in two different scenarios. Finally, this thesis discusses the findings obtained during the extensive research carried out and has led to the achievement of a good theoretical and practical basis for the development of tools and methods for the generation and use of multimedia in education.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis de estructuras mediante modelos de elementos finitos representa una de las metodologías más utilizadas y aceptadas en la industria moderna. Para el análisis de estructuras tubulares de grandes dimensiones similares a las sobrestructuras de autobuses y autocares, los elementos de tipo viga son comúnmente utilizados y recomendados debido a que permiten obtener resultados satisfactorios con recursos computacionales reducidos. No obstante, los elementos de tipo viga presentan importante desventaja ya que las uniones modeladas presentan un comportamiento infinitamente rígido, esto determina un comportamiento mas rígido en las estructuras modeladas lo que se traduce en fuentes de error para las simulaciones estructurales (hasta un 60%). Mediante el modelado de uniones tubulares utilizando elementos de tipo área o volumen, se pueden obtener modelos más realistas, ya que las características topológicas de la unión propiamente dicha pueden ser reproducidas con un mayor nivel de detalle. Evitándose de esta manera los inconvenientes de los elementos de tipo viga. A pesar de esto, la modelización de estructuras tubulares de grandes dimensiones con elementos de tipo área o volumen representa una alternativa poco atractiva debido a la complejidad del proceso de modelados y al gran número de elementos resultantes lo que implica la necesidad de grandes recursos computacionales. El principal objetivo del trabajo de investigación presentado, fue el de obtener un nuevo tipo de elemento capaz de proporcionar estimaciones más exactas en el comportamiento de las uniones modeladas, al mismo tiempo manteniendo la simplicidad del procesos de modelado propio de los elementos de tipo viga regular. Con el fin de alcanzar los objetivos planteados, fueron realizadas diferentes metodologías e investigaciones. En base a las investigaciones realizadas, se obtuvo un modelo de unión viga alternativa en el cual se introdujeron un total seis elementos elásticos al nivel de la unión mediante los cuales es posible adaptar el comportamiento local de la misma. Adicionalmente, para la estimación de las rigideces correspondientes a los elementos elásticos se desarrollaron dos metodologías, una primera basada en la caracterización del comportamiento estático de uniones simples y una segunda basada en la caracterización del comportamiento dinámico a través de análisis modales. Las mejoras obtenidas mediante la implementación del modelo de unión alternativa fueron analizadas mediante simulaciones y validación experimental en una estructura tubular compleja representativa de sobrestructuras de autobuses y autocares. En base a los análisis comparativos realizados con la uniones simples modeladas y los experimentos de validación, se determinó que las uniones modeladas con elementos de tipo viga son entre un 5-60% más rígidas que uniones equivalentes modeladas con elementos área o volumen. También se determinó que las uniones área y volumen modeladas son entre un 5 a un 10% mas rígidas en comparación a uniones reales fabricadas. En los análisis realizados en la estructura tubular compleja, se obtuvieron mejoras importantes mediante la implementación del modelo de unión alternativa, las estimaciones del modelo viga se mejoraron desde un 49% hasta aproximadamente un 14%. ABSTRACT The analysis of structures with finite elements models represents one of the most utilized an accepted technique in the modern industry. For the analysis of large tubular structures similar to buses and coaches upper structures, beam type elements are utilized and recommended due to the fact that these elements provide satisfactory results at relatively reduced computational performances. However, the beam type elements have a main disadvantage determined by the fact that the modeled joints have an infinite rigid behavior, this shortcoming determines a stiffer behavior of the modeled structures which translates into error sources for the structural simulations (up to 60%). By modeling tubular junctions with shell and volume elements, more realistic models can be obtained, because the topological characteristics of the junction at the joint level can be reproduced more accurately. This way, the shortcoming that the beam type elements present can be solved. Despite this fact, modeling large tubular structures with shell or volume type elements represents an unattractive alternative due to the complexity of the modeling process and the large number of elements that result which imply the necessity of vast computational performances. The main objective of the research presented in this thesis was to develop a new beam type element that would be able to provide more accurate estimations for the local behavior of the modeled junctions at the same time maintaining the simplicity of the modeling process the regular beam type elements have. In order to reach the established objectives of the research activities, a series of different methodologies and investigations have been necessary. From these investigations an alternative beam T-junction model was obtained, in which a total of six elastic elements at the joint level were introduced, the elastic elements allowed us to adapt the local behavior of the modeled junctions. Additionally, for the estimation of the stiffness values corresponding to the elastic elements two methodologies were developed, one based on the T-junction’s static behavior and a second one based on the T-junction’s dynamic behavior by means of modal analysis. The improvements achieved throughout the implementation of this alternative T-junction model were analyzed though mechanical validation in a complex tubular structures that had a representative configuration for buses and coaches upper structures. From the comparative analyses of the finite element modeled T-junctions and mechanical experimental analysis, was determined that the beam type modeled T-junctions have a stiffer behavior compared to equivalent shell and volume modeled T-junctions with average differences ranging from 5-60% based on the profile configurations. It was also determined that the shell and volume models have a stiffer behavior compared to real T-junctions varying from 5 to 10% depending on the profile configurations. Based on the analysis of the complex tubular structure, significant improvements were obtained by the implementation of the alternative beam T-junction model, the model estimations were improved from a 49% to approximately 14%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este proyecto se basa en comprobar si es posible encontrar métodos de ajuste con los que poder corregir observaciones altimétricas con errores groseros, que pueden ser causados por el operador al realizar la observación o por otras circunstancias. El ajuste por el método clásico de mínimos cuadrados tiende a repartir los errores cometidos entre todas las observaciones, lo que da como resultado residuos muy elevados cuando se realiza el ajuste de una red cuyas observaciones poseen un error grosero o varios. Habitualmente, siempre y cuando haya redundancia en la toma de datos, se procederá a quitar la observación con mayor residuo y se realizará de nuevo el ajuste sin tener en cuenta dicha observación. También se estudiará el Test de Baarda y su comportamiento según sea el error cometido y el número de errores groseros que aparezcan en el ajuste. Pero el objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que esta investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado en altimetría y me inspiró un proyecto realizado anteriormente bastante similar a este pero centrándose en planimetría, con conclusiones muy favorables, lo que me animó a continuarlo centrándome en la altimetría.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El comportamiento mecánico de muchos materiales biológicos y poliméricos en grandes deformaciones se puede describir adecuadamente mediante formulaciones isocóricas hiperelásticas y viscoelásticas. Las ecuaciones de comportamiento elástico y viscoelástico y las formulaciones computacionales para materiales incompresibles isótropos en deformaciones finitas están ampliamente desarrolladas en la actualidad. Sin embargo, el desarrollo de modelos anisótropos no lineales y de sus correspondientes formulaciones computacionales sigue siendo un tema de investigación de gran interés. Cuando se consideran grandes deformaciones, existen muchas medidas de deformación disponibles con las que poder formular las ecuaciones de comportamiento. Los modelos en deformaciones cuadráticas facilitan la implementación en códigos de elementos finitos, ya que estas medidas surgen de forma natural en la formulación. No obstante, pueden dificultar la interpretación de los modelos y llevar a resultados pocos realistas. El uso de deformaciones logarítmicas permite el desarrollo de modelos más simples e intuitivos, aunque su formulación computacional debe ser adaptada a las exigencias del programa. Como punto de partida, en esta tesis se demuestra que las deformaciones logarítmicas representan la extensión natural de las deformaciones infinitesimales, tanto axiales como angulares, al campo de las grandes deformaciones. Este hecho permite explicar la simplicidad de las ecuaciones resultantes. Los modelos hiperelásticos predominantes en la actualidad están formulados en invariantes de deformaciones cuadráticas. Estos modelos, ya sean continuos o microestructurales, se caracterizan por tener una forma analítica predefinida. Su expresión definitiva se calcula mediante un ajuste de curvas a datos experimentales. Un modelo que no sigue esta metodología fue desarrollado por Sussman y Bathe. El modelo es sólo válido para isotropía y queda definido por una función de energía interpolada con splines, la cual reproduce los datos experimentales de forma exacta. En esta tesis se presenta su extensión a materiales transversalmente isótropos y ortótropos utilizando deformaciones logarítmicas. Asimismo, se define una nueva propiedad que las funciones de energía anisótropas deben satisfacer para que su convergencia al caso isótropo sea correcta. En visco-hiperelasticidad, aparte de las distintas funciones de energía disponibles, hay dos aproximaciones computational típicas basadas en variables internas. El modelo original de Simó está formulado en tensiones y es válido para materiales anisótropos, aunque sólo es adecuado para pequeñas desviaciones con respecto al equilibrio termodinámico. En cambio, el modelo basado en deformaciones de Reese y Govindjee permite grandes deformaciones no equilibradas pero es, en esencia, isótropo. Las formulaciones anisótropas en este último contexto son microestructurales y emplean el modelo isótropo para cada uno de los constituyentes. En esta tesis se presentan dos formulaciones fenomenológicas viscoelásticas definidas mediante funciones hiperelásticas anisótropas y válidas para grandes desviaciones con respecto al equilibrio termodinámico. El primero de los modelos está basado en la descomposición multiplicativa de Sidoroff y requiere un comportamiento viscoso isótropo. La formulación converge al modelo de Reese y Govindjee en el caso especial de isotropía elástica. El segundo modelo se define a partir de una descomposición multiplicativa inversa. Esta formulación está basada en una descripción co-rotacional del problema, es sustancialmente más compleja y puede dar lugar a tensores constitutivos ligeramente no simétricos. Sin embargo, su rango de aplicación es mucho mayor ya que permite un comportamiento anisótropo tanto elástico como viscoso. Varias simulaciones de elementos finitos muestran la gran versatilidad de estos modelos cuando se combinan con funciones hiperelásticas formadas por splines. ABSTRACT The mechanical behavior of many polymeric and biological materials may be properly modelled be means of isochoric hyperelastic and viscoelastic formulations. These materials may sustain large strains. The viscoelastic computational formulations for isotropic incompressible materials at large strains may be considered well established; for example Ogden’s hyperelastic function and the visco-hyperelastic model of Reese and Govindjee are well known models for isotropy. However, anisotropic models and computational procedures both for hyperelasticity and viscohyperelasticity are still under substantial research. Anisotropic hyperelastic models are typically based on structural invariants obtained from quadratic strain measures. These models may be microstructurallybased or phenomenological continuum formulations, and are characterized by a predefined analytical shape of the stored energy. The actual final expression of the stored energy depends on some material parameters which are obtained from an optimization algorithm, typically the Levenberg-Marquardt algorithm. We present in this work anisotropic spline-based hyperelastic stored energies in which the shape of the stored energy is obtained as part of the procedure and which (exactly in practice) replicates the experimental data. These stored energies are based on invariants obtained from logarithmic strain measures. These strain measures preserve the metric and the physical meaning of the trace and deviator operators and, hence, are interesting and meaningful for anisotropic formulations. Furthermore, the proposed stored energies may be formulated in order to have material-symmetries congruency both from a theoretical and from a numerical point of view, which are new properties that we define in this work. On the other hand, visco-hyperelastic formulations for anisotropic materials are typically based on internal stress-like variables following a procedure used by Sim´o. However, it can be shown that this procedure is not adequate for large deviations from thermodynamic equilibrium. In contrast, a formulation given by Reese and Govindjee is valid for arbitrarily large deviations from thermodynamic equilibrium but not for anisotropic stored energy functions. In this work we present two formulations for visco-hyperelasticity valid for anisotropic stored energies and large deviations from thermodynamic equilibrium. One of the formulations is based on the Sidoroff multiplicative decomposition and converges to the Reese and Govindjee formulation for the case of isotropy. However, the formulation is restricted to isotropy for the viscous component. The second formulation is based on a reversed multiplicative decomposition. This last formulation is substantially more complex and based on a corotational description of the problem. It can also result in a slightly nonsymmetric tangent. However, the formulation allows for anisotropy not only in the equilibrated and non-equilibrated stored energies, but also in the viscous behavior. Some examples show finite element implementation, versatility and interesting characteristics of the models.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las normativas que regulan la seguridad de las presas en España han recogido la necesidad de conocer los desplazamientos y deformaciones de sus estructuras y cimientos. A día de hoy, son muchas las presas en explotación que no cuentan con un sistema de auscultación adecuado para controlar este tipo de variables, ya que la instalación de métodos clásicos de precisión en las mismas podría no ser viable técnicamente y, de serlo, supondría un coste económico importante y una dudosa garantía del proceso de ejecución de la obra civil correspondiente. Con el desarrollo de las nuevas tecnologías, la informática y las telecomunicaciones, han surgido nuevos sistemas de auscultación de desplazamientos. Los sistemas GPS actuales, diseñados para el control de estructuras, guiado de maquinaria, navegación y topografía, estabilidad de taludes, subsidencias, etc. permiten alcanzar precisiones centimétricas. El sistema de control de movimientos basado en la tecnología DGPS (GPS diferencial) combinada con un filtro estadístico con el que se alcanzan sensibilidades de hasta ±1 mm en el sistema, suficientes para una auscultación normal de presas según los requerimientos de la normativa actual. Esta exactitud se adapta a los desplazamientos radiales de las presas, donde son muy comunes valores de amplitudes en coronación de hasta 15 mm en las de gravedad y de hasta 45 mm en el caso de las presas bóveda o arco. La presente investigación tiene por objetivo analizar la viabilidad del sistema DGPS en el control de movimientos de presas de hormigón comparando los diferentes sistemas de auscultación y su correlación con las variables físicas y las vinculadas al propio sistema GPS diferencial. Ante la necesidad de dar respuesta a estas preguntas y de validar e incorporar a la mencionada tecnología en la ingeniería civil en España, se ha llevado a cabo un estudio de caso en La Aceña (Ávila). Esta es una de las pocas presas españolas que se está controlando con dicha tecnología y de forma simultánea con los sistemas clásicos de auscultación y algunos otros de reciente aplicación La presente investigación se ha organizado con idea de dar respuesta a varias preguntas que el explotador de presas se plantea y que no se analizan en el estado del arte de la técnica: cómo hacer la configuración espacial del sistema y cuáles son los puntos necesarios que se deben controlar, qué sistemas de comunicaciones son los más fiables, cuáles son los costes asociados, calibración del software, vida útil y mantenimientos requeridos, así como la posibilidad de telecontrolar los datos. Entre las ventajas del sistema DGPS, podemos señalar su bajo coste de implantación y posibilidad de controlarlo de forma remota, así como la exactitud y carácter absoluto de los datos. Además, está especialmente indicado para presas aisladas o mal comunicadas y para aquellas otras en las que el explotador no tiene referencia alguna de la magnitud de los desplazamientos o deformaciones propias de la presa en toda su historia. Entre los inconvenientes de cualquier sistema apoyado en las nuevas tecnologías, destaca la importancia de las telecomunicaciones ya sea en el nivel local en la propia presao desde su ubicación hasta el centro de control de la explotación. Con la experiencia alcanzada en la gestión de la seguridad de presas y sobre la base de la reciente implantación de los nuevos métodos de auscultación descritos, se ha podido analizar cada una de sus ventajas e inconvenientes. En el capítulo 5, se presenta una tabla de decisión para el explotador que servirá como punto de partida para futuras inversiones. El impacto de esta investigación se ha visto reflejado en la publicación de varios artículos en revistas indexadas y en el debate suscitado entre gestores y profesionales del sector en los congresos nacionales e internacionales en los que se han presentado resultados preliminares. All regulations on the safety of dams in Spain have collected the need to know the displacements and deformations of the structure and its foundation. Today there are many dams holding not have an adequate system of auscultation to control variables such as the installation of classical methods of precision in the same might not be technically feasible, and if so, would cost important economic and guarantee the implementation process of the dubious civil works. With the development of new technologies, computing and telecommunications, new displacements auscultation systems have emerged. Current GPS systems designed to control structures, machine guidance, navigation and topography, slope stability, subsidence, etc, allow to reach centimeter-level accuracies. The motion control system based on DGPS technology applies a statistical filter that sensitivities are achieved in the system to ± 1 mm, sufficient for normal auscultation of dams as required by current regulations. This accuracy is adapted to the radial displacement of dams, which are common values in coronation amplitudes up to 15 mm in gravity dams and up to 45 mm in arch or arc dams. This research aims to analyze the feasibility of DGPS system in controlling movements of concrete dams, comparing the different systems auscultation and its correlation with physical variables and linked to differential GPS system itself. Given the need to answer this question and to validate and incorporate this technology to civil engineering in Spain, has conducted a case study in real time at the dam La Aceña (Ávila). This dam is one of the few Spanish companies, which are controlling with this technology and simultaneously with the classic auscultation systems and some other recent application. This research has been organized with a view to responding to questions that the dam operator arises and in the state of the art technique not discussed: how to make spatial configuration of the system and what are the necessary control points what communication systems are the most reliable, what are the associated costs, calibration software, service life and maintenance requirements, possibility of monitoring, etc. Among the advantages we can point to its low cost of implementation, the possibility of remote, high accuracy and absolute nature of the data. It could also be suitable for those isolated or poorly communicated dams and those in which the operator has no reference to the magnitude of displacements or deformations own prey in its history. The disadvantages of any system based on the new technologies we highlight the importance of telecommunications, either locally or from this dam control center of the farm. With the experience gained in the management of dam safety and based on the recent introduction of new methods of auscultation described, it has been possible to analyze each of their advantages and disadvantages. A decision table for the operator, which will serve as a starting point for future investments is presented. The impact of research, has been reflected in the publication of several articles in refereed journals and discussion among managers and professionals in national and international conferences in which they participated.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En MAUT uno de los modelos más usados para representar las preferencias de los decisores es el modelo de utilidad multiatributo aditivo. En muchos problemas reales la determinación de las funciones de utilidad y pesos de cada atributo no pueden ser obtenidos de una forma precisa. En este trabajo consideramos que la imprecisión en las funciones de utilidad queda representada al considerar clases de funciones de utilidad, y la de los pesos mediante una ordenación de los mismos, intervalos de pesos, distribuciones de probabilidad normales o números difusos. La metodología que proponemos para resolver los problemas multiatributo imprecisos está basada en la intensidad de dominancia entre pares de alternativas. Partiendo de la matriz de dominancia se calcula para cada alternativa el valor de dominancia total, en función de la intensidad con la que esta alternativa domina al resto y el resto la domina a ella, el cual nos permitirá obtener la ordenación de las alternativas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los fenómenos aeroelásticos son relativamente frecuentes en las construcciones civiles modernas como edificios de oficinas, terminales de aeropuertos o fábricas. En este tipo de arquitectura aparecen con frecuencia estructuras flexibles sometidas a la acción del viento, como por ejemplo persianas formadas por láminas con distintos perfiles. Uno de estos perfiles es el perfil en Z, formado por un elemento central y dos alas laterales. Las inestabilidades de tipo galope se determinan en la práctica utilizando el criterio Glauert-Den Hartog. Este criterio precisa de la predicción exacta de la dependencia de los coeficientes aerodinámicos del ángulo de ataque. En esta tesis se presenta un estudio sistemático, tanto por métodos experimentales como numéricos de una familia completa de perfiles en Z que permite determinar sus regiones de inestabilidad frente al galope. Los análisis numéricos han sido validados con ensayos estáticos realizados en túnel de viento. Para la parte numérica se ha utilizado el código DLR TAU, que es un código de amplia utilización en la industria aeronáutica europea. En esta tesis se enfoca sobre todo a la predicción del galope en este tipo de perfiles en Z. Los resultados se presentan en forma de mapas de estabilidad. A lo largo del trabajo se realizan también comparaciones entre resultados numéricos y experimentales para varios niveles de detalle de las mallas empleadas y diversos modelos de turbulencia. ABSTRACT Aeroelastic effects are relatively common in the design of modern civil constructions such as office blocks, airport terminal buildings, and factories. Typical flexible structures exposed to the action of wind are shading devices, normally slats or louvers. A typical cross-section for such elements is a Z-shaped profile,made out of a central web and two-sidewings. Galloping instabilities are often determined in practice using the Glauert-DenHartog criterion.This criterion relies on accurate predictions of the dependence of the aerodynamic force coefficients with the angle of attack. The results of a parametric analysis based on both experimental and numerical analysis and performed on different Z-shaped louvers to determine translational galloping instability regions are presented in this thesis. These numerical analysis results have been validated with a parametric analysis of Z-shaped profiles based on static wind tunnel tests. In order to perform this validation, the DLR TAU Code, which is a standard code within the European aeronautical industry, has been used. This study highlights the focus on the numerical prediction of the effect of galloping, which is shown in a visible way, through stability maps. Comparisons between numerical and experimental data are presented with respect to various meshes and turbulence models.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La detección de los bordes de líneas en la carretera es una parte muy importante en los sistemas inteligentes de transportación, así como la detección de objetos tal como vehículos, con la finalidad de informar o prevenir a través de una alerta al conductor o al sistema informático. De aquí nace el interés de analizar algunos métodos de visión artificial (VA) que es un subcampo de la inteligencia artificial, cuyo propósito es programar un computador y que este “entienda” una escena o imagen, algunos de los métodos más comunes en la detección de líneas y vehículos (considerados objetos en nuestra investigación) son la transformada de Hough, el método de Canny, clasificador Haar Cascade, filtros de Fourier, etc. Se desarrollará una aplicación de escritorio o PC (Personal Computer) para el reconocimiento de vehículos y las líneas de bordes, el lenguaje de programación utilizado será Python y la biblioteca OpenCV que contiene más de 500 funciones en el campo de visión por computador. La validación del reconocimiento de objetos se la realizará con una prueba de campo. Este resultado apoyará a la automoción (máquina que se desplaza por acción de un motor como el vehículo) con datos que luego pueden ser procesados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el proceso de cálculo de redes de tuberías se maneja un conjunto de variables con unas características muy peculiares, ya que son discretas y estandarizadas. Por lo tanto su evolución se produce por escalones (la presión nominal, el diámetro y el costo de los tubos). Por otro lado la presión de diseño de la red es una función directa de la presión de cabecera. En el proceso de optimización mediante programación dinámica la presión de cabecera se va reduciendo gradualmente en cada secuencia del proceso, haciendo que evolucione a la par la presión de diseño, lo que genera a su vez saltos discriminados en la presión nominal de los tramos, y con ello en su costo y en su gradiente de cambio. En esta tesis doctoral se analiza si estos cambios discriminados que se producen en el gradiente de cambio de algunos tramos en el curso de una secuencia, ocasionados por la evolución de la presión de cabecera de la red, generan interferencias que alteran el proceso secuencial de la programación dinámica. La modificación del gradiente de cambio durante el transcurso de una secuencia se conoce con el nombre de mutación, la cual puede ser activa cuando involucra a un tramo optimo modificando las condiciones de la transacción o pasiva si no crea afección alguna. En el análisis realizado se distingue entre la mutación del gradiente de cambio de los tramos óptimos (que puede generarse exclusivamente en el conjunto de los trayectos que los albergan), y entre los efectos que el cambio de timbraje produce en el resto de los tramos de la red (incluso los situados aguas abajo de los nudos con holgura de presión nula) sobre el mecanismo iterativo, estudiando la compatibilidad de este fenómeno con el principio de óptimo de Bellman. En el proceso de investigación llevado a cabo se destaca la fortaleza que da al proceso secuencial del método Granados el hecho de que el gradiente de cambio siempre sea creciente en el avance hacia el óptimo, es decir que el costo marginal de la reducción de las pérdidas de carga de la red que se consigue en una iteración siempre sea más caro que el de la iteración precedente. Asimismo, en el estudio realizado se revisan los condicionantes impuestos al proceso de optimización, incluyendo algunos que hasta ahora no se han tenido en cuenta en los estudios de investigación, pero que están totalmente integrados en la ingeniería práctica, como es la disposición telescópica de las redes (reordenación de los diámetros de mayor a menor de cabeza a cola de la red), y la disposición de un único diámetro por tramo, en lugar de que estén compartidos por dos diámetros contiguos (con sus salvedades en caso de tramos de gran longitud, o en otras situaciones muy específicas). Finalmente se incluye un capítulo con las conclusiones, aportaciones y recomendaciones, las cuales se consideran de gran utilidad para la ingeniería práctica, entre las que se destaca la perfección del método secuencial, la escasa transcendencia de las mutaciones del gradiente de cambio y la forma en que pueden obviarse, la inocuidad de las mutaciones pasivas y el cumplimiento del principio de Bellman en todo el proceso de optimización. The sizing process of a water distribution network is based on several variables, being some of them special, as they are discrete and their values are standardized: pipe pressure rating, pipe diameter and pipe cost. On another note, the sizing process is directly related with the pressure at the network head. Given that during the optimization by means of the Granados’ Method (based on dynamic programming) the pressure at the network head is being gradually reduced, a jump from one pipe pressure rating to another may arise during the sequential process, leading to changes on the pipe cost and on the gradient change (unitary cost for reducing the head losses). This chain of changes may, in turn, affect the sequential process diverting it from an optimal policies path. This thesis analyses how the abovementioned alterations could influence the results of the dynamic programming algorithm, that is to say the compatibility with the Bellman’s Principle of Optimality, which states that the sequence has to follow a route of optimal policies, and that past decisions should not influence the remaining ones. The modification of the gradient change is known as mutation. Mutations are active when they affect the optimal link (the one which was selected to be changed during iteration) or passive when they do not alter the selection of the optimal link. The thesis analysed the potential mutations processes along the network, both on the optimal paths and also on the rest of the network, and its influence on the final results. Moreover, the investigation analysed the practical restrictions of the sizing process that are fully integrated in the applied engineering, but not always taken into account by the optimization tools. As the telescopic distribution of the diameters (i.e. larger diameters are placed at the network head) and the use of a unique diameter per link (with the exception of very large links, where two consecutive diameters may be placed). Conclusions regarding robustness of the dynamic programming algorithm are given. The sequence of the Granados Method is quite robust and it has been shown capable to auto-correct the mutations that could arise during the optimization process, and to achieve an optimal distribution even when the Bellman’s Principle of Optimality is not fully accomplished. The fact that the gradient change is always increasing during the optimization (that is to say, the marginal cost of reducing head losses is always increasing), provides robustness to the algorithm, as looping are avoided in the optimization sequence. Additionally, insight into the causes of the mutation process is provided and practical rules to avoid it are given, improving the current definition and utilization of the Granados’ Method.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El consumo de energía es responsable de una parte importante de las emisiones a la atmósfera de CO2, que es uno de los principales causantes del efecto invernadero en nuestro planeta. El aprovechamiento de la energía solar para la producción de agua caliente, permite economizar energía y disminuir el impacto del consumo energético sobre el medio ambiente y por tanto un menor impacto medioambiental. El objetivo de la presente investigación consiste en estudiar el aprovechamiento solar para el calentamiento de los fangos en los digestores anaerobios mediante agua caliente circulando en el interior de un serpentín que rodea la superficie de dicho digestor, como apoyo a los métodos convencionales del calentamiento de fangos como la resistencia eléctrica o el intercambiador de calor mediante la energía obtenida por el gas metano producido en la digestión anaerobia. Para el estudio se utilizaron 3 digestores, dos delos cuales se calentaron con agua caliente en el interior de un serpentín (uno aislado mediante una capa de fibra de vidrio y poliuretano y otro sin aislar).El tercer digestor no tenía calentamiento exterior con el objetivo de observar su comportamiento y comparar su evolución con el resto de los digestores .La comparación de los digestores 1 y 2 nos permitió estudiar la conveniencia de proveer de aislamiento al digestor. La transferencia de calor mediante serpentín de cobre dio valores comprendidos entre 83 y 92%. La aplicación de la instalación a una depuradora a escala real para mantenimiento en el interior del digestor a T=32ºC en diferentes climas: climas templados, cálidos y fríos, consistió en el cálculo de la superficie de colectores solares y superficie de serpentín necesario para cubrir las necesidades energéticas anuales de dicho digestor, así como el estudio de rentabilidad de la instalación, dando los mejores resultados para climas cálidos con períodos de retorno de 12 años y una tasa interna de rentabilidad (TIR) del 16% obteniendo una cobertura anual del 79% de las necesidades energéticas con energía solar térmica. Energy consumption accounts for a significant part of the emissions of CO2, which is one of the main causes of the greenhouse effect on our planet. The use of solar energy for hot water production. can save energy and reduce the impact of energy consumption on the environment and therefore a reduced environmental impact. The objective of this research is to study the solar utilization for heating the sludge in anaerobic digesters by hot water circulating inside a coil surrounding the surface of digester, to support conventional heating methods sludge as the electrical resistance or heat exchanger by energy generated by the methane gas produced in the anaerobic digestion. To study 3 digesters used two models which are heated with hot water within a coil (one insulated by a layer of fiberglass and polyurethane and other uninsulated) .The third digester had no external heating in order to observe their behavior and compare their evolution with the rest of the .The comparison digesters digesters 1 and 2 allowed us to study the advisability of providing insulation to the digester. Heat transfer through copper coil gave values between 83 and 92%. The installation application to a treatment for maintaining full scale within the digester at T = 32ºC in different climates: temperate, warm and cold climates, consisted of calculating the surface area of solar collectors and coil required to cover the annual energy needs of the digester, and the study of profitability of the installation, giving the best results for hot climates with return periods of 12 years and an internal rate of return (IRR) of 16% achieving an annual coverage of 79 % of energy needs with solar energy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los tratamientos biopelícula fueron unos de los primeros tratamientos biológicos que se aplicaron en las aguas residuales. Los tratamientos biopelícula presentan importantes ventajas frente a los cultivos en suspensión, sin embargo, el control de los tratamientos biopelícula es complicado y su modelización también. Las bases teóricas del comportamiento de las biopelículas empezaron a desarrollarse fundamentalmente a partir de los años 80. Dado que el proceso es complejo con ecuaciones de difícil resolución, estas conceptualizaciones han sido consideradas durante años como ejercicios matemáticos más que como herramientas de diseño y simulación. Los diseños de los reactores estaban basados en experiencias de plantas piloto o en comportamientos empíricos de determinadas plantas. Las ecuaciones de diseño eran regresiones de los datos empíricos. La aplicabilidad de las ecuaciones se reducía a las condiciones particulares de la planta de la que provenían los datos empíricos. De tal forma que existía una gran variedad y diversidad de ecuaciones empíricas para cada tipo de reactor. La investigación médica durante los años 90 centró su atención en la formación y eliminación de las biopelículas. Gracias al desarrollo de nuevas prácticas de laboratorio que permitían estudiar el interior de las biopelículas y gracias también al aumento de la capacidad de los ordenadores, la simulación del comportamiento de las biopelículas tomó un nuevo impulso en esta década. El desarrollo de un tipo de biopelículas, fangos granulares, en condiciones aerobias realizando simultaneamente procesos de eliminación de nutrientes ha sido recientemente patentado. Esta patente ha recibido numerosos premios y reconocimientos internacionales tales como la Eurpean Invention Award (2012). En 1995 se descubrió que determinadas bacterias podían realizar un nuevo proceso de eliminación de nitrógeno denominado Anammox. Este nuevo tipo de proceso de eliminación de nitrógeno tiene el potencial de ofrecer importantes mejoras en el rendimiento de eliminación y en el consumo de energía. En los últimos 10 años, se han desarrollado una serie de tratamientos denominados “innovadores” de eliminación de nutrientes. Dado que no resulta posible el establecimiento de estas bacterias Anammox en fangos activos convencionales, normalmente se recurre al uso de cultivos biopelícula. La investigación se ha centrado en el desarrollo de estos procesos innovadores en cultivos biopelícula, en particular en los fangos granulares y MBBR e IFAs, con el objeto de establecer las condiciones bajo las cuales estos procesos se pueden desarrollar de forma estable. Muchas empresas y organizaciones buscan una segunda patente. Una cuestión principal en el desarrollo de estos procesos se encuentra la correcta selección de las condiciones ambientales y de operación para que unas bacterias desplacen a otras en el interior de las biopelículas. El diseño de plantas basado en cultivos biopelícula con procesos convencionales se ha realizado normalmente mediante el uso de métodos empíricos y semi-empíricos. Sin embargo, los criterios de selección avanzados aplicados en los Tratamientos Innovadores de Eliminación de Nitrógeno unido a la complejidad de los mecanismos de transporte de sustratos y crecimiento de la biomasa en las biopelículas, hace necesario el uso de herramientas de modelización para poder conclusiones no evidentes. Biofilms were one of the first biological treatments used in the wastewater treatment. Biofilms exhibit important advantages over suspended growth activated sludge. However, controlling biofilms growth is complicated and likewise its simulation. The theoretical underpinnings of biofilms performance began to be developed during 80s. As the equations that govern the growth of biofilms are complex and its resolution is challenging, these conceptualisations have been considered for years as mathematical exercises instead of practical design and simulation tools. The design of biofilm reactors has been based on performance information of pilot plants and specific plants. Most of the times, the designing equations were simple regressions of empirical data. The applicability of these equations were confined to the particular conditions of the plant from where the data came from. Consequently, there were a wide range of design equations for each type of reactor During 90s medical research focused its efforts on how biofilm´s growth with the ultimate goal of avoiding it. Thanks to the development of new laboratory techniques that allowed the study the interior of the biofilms and thanks as well to the development of the computers, simulation of biofilms’ performance had a considerable evolution during this decade. In 1995 it was discovered that certain bacteria can carry out a new sort of nutrient removal process named Anammox. This new type of nutrient removal process potentially can enhance considerably the removal performance and the energy consumption. In the last decade, it has been developed a range of treatments based on the Anammox generally named “Innovative Nutrient Removal Treatments”. As it is not possible to cultivate Anammox bacteria in activated sludge, normally scientists and designers resort to the use of biofilms. A critical issue in the development of these innovative processes is the correct selection of environment and operation conditions so as to certain bacterial population displace to others bacteria within the biofilm. The design of biofilm technology plants is normally based on the use of empirical and semi-empirical methods. However, the advanced control strategies used in the Innovative Nutrient Removal Processes together with the complexity of the mass transfer and biomass growth in biofilms, require the use of modeling tools to be able to set non evident conclusions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde hace más de 20 años, muchos grupos de investigación trabajan en el estudio de técnicas de reconocimiento automático de expresiones faciales. En los últimos años, gracias al avance de las metodologías, ha habido numerosos avances que hacen posible una rápida detección de las caras presentes en una imagen y proporcionan algoritmos de clasificación de expresiones. En este proyecto se realiza un estudio sobre el estado del arte en reconocimiento automático de emociones, para conocer los diversos métodos que existen en el análisis facial y en el reconocimiento de la emoción. Con el fin de poder comparar estos métodos y otros futuros, se implementa una herramienta modular y ampliable y que además integra un método de extracción de características que consiste en la obtención de puntos de interés en la cara y dos métodos para clasificar la expresión, uno mediante comparación de desplazamientos de los puntos faciales, y otro mediante detección de movimientos específicos llamados unidades de acción. Para el entrenamiento del sistema y la posterior evaluación del mismo, se emplean las bases de datos Cohn-Kanade+ y JAFFE, de libre acceso a la comunidad científica. Después, una evaluación de estos métodos es llevada a cabo usando diferentes parámetros, bases de datos y variando el número de emociones. Finalmente, se extraen conclusiones del trabajo y su evaluación, proponiendo las mejoras necesarias e investigación futura. ABSTRACT. Currently, many research teams focus on the study of techniques for automatic facial expression recognition. Due to the appearance of digital image processing, in recent years there have been many advances in the field of face detection, feature extraction and expression classification. In this project, a study of the state of the art on automatic emotion recognition is performed to know the different methods existing in facial feature extraction and emotion recognition. To compare these methods, a user friendly tool is implemented. Besides, a feature extraction method is developed which consists in obtaining 19 facial feature points. Those are passed to two expression classifier methods, one based on point displacements, and one based on the recognition of facial Action Units. Cohn-Kanade+ and JAFFE databases, both freely available to the scientific community, are used for system training and evaluation. Then, an evaluation of the methods is performed with different parameters, databases and varying the number of emotions. Finally, conclusions of the work and its evaluation are extracted, proposing some necessary improvements and future research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El tratamiento superficial por ondas de choque generadas por láser, LSP, es una técnica cuyo principal objetivo es el de la modificación del estado tensional de las primeras micras en profundidad de materiales metálicos. En sus comienzos está técnica fue empleada para inducir tensiones residuales de compresión en superficie, pero mientras se avanzaba en su desarrollo se empezaron a observar otros efectos. Profundizando en ellos se llega a la conclusión de que existe una fuerte relación entre todos, pero dependiendo de la aplicación a la que se vea sometido un componente tratado con LSP será necesario una serie de características que bien pueden ser ajustadas “a priori”. Para ello se ha de tener una buena caracterización del proceso láser y de las modificaciones que produce en las propiedades de un material determinado. Y es en este punto donde surge el problema: las modificaciones introducidas por el tratamiento láser son dependientes de la interacción de la energía del pulso láser con el material, es decir, para cada material es necesaria una caracterización previa de cómo sus propiedades son modificadas con las diferentes configuraciones del tratamiento LSP, encontrando para cada material un óptimo en los parámetros láser. En esta Tesis se pretende desarrollar una metodología para evaluar las modificaciones en las propiedades mecánicas y superficiales inducidas en materiales metálicos debido al tratamiento superficial por ondas de choque. De esta manera y avanzando de una manera lógica con la línea de investigación del grupo, se ha querido aplicar todo el conocimiento adquirido de la técnica para desarrollar esa metodología sobre un caso práctico: el empleo de dos configuraciones de tratamiento LSP sobre el acero inoxidable AISI 316L. Estas dos configuraciones elegidas se hacen en base a estudios previos, por parte del grupo de investigación, donde se han optimizados los parámetros para obtener el óptimo en lo que a perfil de tensiones residuales en profundidad se refiere. El material elegido como caso característico para llevar acabo la evaluación integrada del tratamiento LSP, de acuerdo con el propósito de esta Tesis, ha sido el acero inoxidable AISI 316L, debido a que este tipo de acero tiene una excelente resistencia a la corrosión en un amplio rango de atmosferas corrosivas, y es conocido como el grado estándar para un importante número de aplicaciones tecnológicas. La resistencia a la oxidación es buena incluso a altas temperaturas de servicio y la soldabilidad es excelente. Los aceros austeníticos son empleados en aplicaciones que soportan condiciones de alta temperatura y medios altamente corrosivos, como en reactores nucleares. Estos aceros resisten la corrosión en el agua de un reactor y procesos químicos en plantas que operan a temperaturas superiores a los 900 ˚C. En concreto el acero 316L se utiliza en la industria de equipamiento alimentario, en ambientes donde haya presencia de cloruros, en aplicaciones farmacéuticas, en la industria naval, en arquitectura, sector energético, centrales nucleares y en implantes médicos. Es decir, es un material ampliamente implantado en la industria, tanto en industrias tradicionales, como en industrias emergentes como la biomédica. El objetivo marcado para el desarrollo de la presente Tesis es caracterizar de forma precisa cómo el tratamiento superficial por ondas de choque generadas por láser es capaz de mejorar las propiedades de los materiales y cómo de estables son estas con la temperatura. Este punto es importante puesto que a la hora de introducir el proceso LSP en la industria no solo se tiene que tener en cuenta que las propiedades del material sean mejoradas, sino que también es necesario comprobar si esas mejoras se mantienen después de ser sometido el material a un tratamiento térmico ya que las condiciones de servicio de los materiales y componentes empleados no tienen por qué trabajar a temperatura ambiente. Para lograr el objetivo mencionado, el trabajo experimental realizado en la aleación seleccionada bajo todas las condiciones a estudio (material según fue recibido de fábrica, tratado con las dos configuraciones LSP y después de haber sido sometido al tratamiento térmico) ha consistido en lo siguiente: i) Estudios microestructural, morfológico y de composición química. ii) Medida de las tensiones residuales introducidas. iii) Caracterización superficial del material. iv) Estudio de las propiedades mecánicas: ensayos de tracción, ensayos de dureza, cálculo de la densidad de dislocaciones y ensayos de fatiga. v) Caracterización tribológica: ensayos de fricción y cálculo de la tasa de desgaste y volumen eliminado. vi) Caracterización electro-química para el material base y tratado con las dos configuraciones LSP. Se realizan medidas a circuito abierto, curvas de polarización (OCP), ensayos potenciostáticos y espectroscopia de impedancia electroquímica (EIS). El trabajo se ha llevado a cabo en los laboratorios del Centro Láser de la Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta tesis, va a ser la investigación y desarrollo de tratamientos de biorremediación para conseguir la recuperación de los terrenos contaminados situados en el tramo del tren de alta velocidad entre Córdoba y Málaga, reduciendo de esta forma los residuos enviados a vertederos. Para ello, se va a investigar y a desarrollar una tecnología innovadora de descontaminación in situ de suelos con altas concentraciones de hidrocarburos, basándonos en el landfarming y como principal avance la coexistencia con hidróxido de magnesio, elemento no utilizado nunca y potencialmente muy útil. Se va a pretender reducir la concentración final de hidrocarburos y el tiempo de tratamiento, sin transportar a vertedero los residuos. Se desean conseguir las condiciones ambientales óptimas que permitan potenciar la degradación microbiana de los hidrocarburos y sus productos residuales en corto tiempo Se va a investigar el empleo del hidróxido de magnesio como complemento al landfarming y a buscar las sinergias de este compuesto como gran fijador de metales pesados. ABSTRACT The aim of this thesis will be the research and development of bioremediation treatments for the recovery of contaminated land in the stretch of the high speed train between Cordoba and Malaga, thereby reducing waste sent to landfills. To do this, is to research and develop innovative technology for in situ remediation of soil with high concentrations of hydrocarbons, based on the main progress landfarming and coexistence with magnesium hydroxide, item never used and potentially very useful. It will pretend to reduce the final hydrocarbon concentration and treatment time, without transporting waste landfill. They want to get the optimum environmental conditions for enhancing microbial degradation of hydrocarbons and waste products in a short time It will investigate the use of magnesium hydroxide as a complement to landfarming and seek synergies of this compound as a great fixer of heavy metals.