66 resultados para Sitio y caída de Tenochtitlan
Resumo:
El principal objetivo del proyecto es intentar reducir los costes de algunas de las operaciones de vigilancia llevadas a cabo por agencias o instituciones de seguridad. El proyecto consiste en diseñar y desarrollar un sistema informático que permita el manejo a distancia de un cuadricóptero a través de un ordenador, utilizando el teclado y visualizando las imágenes recibidas del módulo de la videocámara. Cada cuadricóptero estará compuesto de diferentes módulos y cada módulo tiene una funcionalidad característica. Se desarrollará un sistema de gestión de aeronaves para poder añadir nuevas unidades de cuadricópteros, así como un sistema de gestión de usuarios para administrar los usuarios en el sistema. Adicionalmente, se construirá un prototipo de cuadricóptero y se implementará su unidad controladora para poder realizar las pruebas del sistema desarrollado con ello. ---ABSTRACT---The aim of this project is to attempt to reduce the costs of some surveillance services offered by security agencies or institutions. The project consists in designing and developing a computer system to remotely control a drone or quad-copter through a computer, manipulating the drone through the keyboard and watching the images captured from the camera module. Each drone is built with one or more modules, and each module has its own functionality. Both new drones and new users can be added to the computer system through the drone management system and the user management system, respectively. Both of management systems are going to be developed. The project also includes the making of a quad-copter prototype and a controller unit implementation.
Resumo:
Un Equity Carve Out, también conocido como escisión IPO o escisión parcial de empresas, constituye un tipo de reorganización corporativa, en la que una empresa crea una nueva filial a partir de la separación de una de sus actividades, negocios o servicios. Estas operaciones empresariales actualmente constituyen unas de las prácticas más comunes usadas por las compañías para conseguir financiación. El capital entrante por la venta de parte o la totalidad de la filial, justificará por un lado el esfuerzo invertido en el proceso y por otro abrirá nuevos caminos para la empresa recién constituida. Pero la mayor parte de estos procesos son de una complejidad elevada, tanto si se ven desde la óptica externa a la empresa, como interna. Por un lado las valoraciones bursátiles, dadas las actuales circunstancias económicas, no son las mejores. Y por otro, los proyectos de escisión tienen demasiados puntos críticos para considerarlos sencillos o mecánicos de ejecución. Este documento se centrará en dar solución a la problemática interna que afrontan las empresas una vez tomada la decisión de escindir una actividad: ¿cómo gestionar el proceso? Desde la experiencia y el conocimiento empresarial, se propone como solución: un proyecto completo, coherente y estructurado de escisión; y un PMO o responsable de proyecto, para dirigirlo. Durante todo el documento se repasarán todos y cada uno de los pasos que debe tener en consideración y llevar bajo control el PMO, para acabar el equity carve out en 5 meses. Se definirá un proyecto completo describiendo los pasos necesarios para: • Construir nueva empresa y las relaciones con su ecosistema. • Definir todas las operaciones de negocio necesarias para garantizar su operatividad. • Crear las estructuras necesarias que soporten todas las operaciones y procesos. Para ello y dentro de una planificación global, se propone el trabajo diario con todos los departamentos que tengan algún tipo de involucración en el proceso: operaciones, legal, recursos humanos, financiero, fiscal, TI, marketing y comunicación y compras. Todos estos departamentos o líneas de trabajo tendrán tareas y objetivos particulares. El documento servirá de manual, para que el PMO tenga una visión cuasi-completa de lo que hay que hacer en cada momento, con qué profesionales trabajar y con qué propósito. ---ABSTRACT---An Equity Carve Out, also named as excision or partial IPO excision of companies, is a type of corporate reorganization in which a company creates a new one from the separation of one of its activities, business or services. Currently these business operations constitute one of the most common practices used by companies to get funding. The capital that comes from the sale of part or the totality of the subsidiary, justifies the effort invested in the process on one hand, and on the other opens new perspectives for the newly formed company. But most of these processes are highly complex, whether viewed from outside the company, or from inside. On one side, stock valuations, taking into account the current economic circumstances, are not the best. And on the other side, excision projects have too many critical points to consider the projects simple or mechanical. This document is focused on resolving the internal problems faced by enterprises, once the decision of spinning off the activity is taken: how to manage the process? From the experience and business knowledge, we propose as solution: a complete, coherent and structured excision project; and a PMO or Project Officer leading it. Throughout the document, each and every step that the PMO must take into consideration will be reviewed, in order to finish the equity carve-out in 5 months. A complete project will be defined by describing the steps necessary to: • Build new business and relationships with its ecosystem. • Define all business operations necessary to ensure their operability. • Create the necessary structures that support all operations and processes. Within the Global Planning, we will propose daily work with all the departments that have some sort of involvement in the process: operations, legal, human resources, financial, taxes, IT, marketing communication and purchases. All these departments or working lines have their own tasks and goals. The document could be used as a manual for the PMO in order to have a near-complete picture of what to do anytime, with what professionals he/she would work and for what purpose.
Resumo:
El objeto del presente Proyecto de Construcción del “Puente de Edermendi” es dimensionar en detalle todos los elementos estructurales y no estructurales del puente, desarrollando la alternativa escogida como idónea en el Estudio Previo de Soluciones. EL puente está enmarcado en el nuevo tramo de carretera Urberuaga-Berriatúa, perteneciente al corredor Lea-Artibai, en Vizcaya. El puente se encuentra entre los túneles de Edermendi y Milloi, tal como se recoge en la solución de trazado adoptada en el “Plan Especial Viario Urberuaga-Berriatua”, cuya aprobación definitiva fue publicada en el Boletín Oficial de Vizcaya del día 17 de Enero de 2011. En este se establece que será un puente de planta recta, 135 metros de longitud y 16,70 metros de ancho. El Estudio Previo concluyó con la elección de un puente viga de hormigón pretensado, con luces de 42, 51 y 42 metros, que constituyen los tres vanos. La sección del puente es una sección de doble cajón, y los apoyos en pila son a través de dos pilas gemelas. Los elementos estructurales del puente son: I. Tablero II. Pilas III. Cimentaciones. IV. Estribos. Se dará una definición detallada de todos y cada uno de los elementos que integran el puente.
Resumo:
Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.
Resumo:
Con el objetivo de consolidar los conocimientos en Sistemas de Telecomunicación, se pretende diseñar una red para la distribución de servicios avanzados, como televisión, internet de banda ancha y telefonía, mediante el uso de la tecnología FTTH. La red será totalmente pasiva, óptica, y de gran ancho de banda, Tipo PON (Passive Optical Network), de manera que el haz de luz del emisor se distribuye hacia múltiples fibras siguiendo diferentes direcciones, o las confina en el sentido opuesto usando técnicas WDM y TDMA. En primer lugar, es preciso realizar un estudio teórico sobre las características de la fibra óptica, junto con las propiedades de los elementos activos y pasivos que interactúan con ella, para poder comprender la tecnología en la que se basa y así ofrecer una solución final acorde a las necesidades que se presenten. Tras un vistazo general a la tecnología de fibra óptica, se procede a estudiar las características y topologías de las redes de acceso basadas en la misma, junto con los requisitos de cara al diseño de la redes y a la gestión de proyectos. Se definirán los objetivos de la red, ya que la complejidad de la red depende de factores como la extensión y cobertura de la misma, o el ancho de banda. Posteriormente se irá diseñando la red en una arquitectura descendente hasta destinar una única fibra óptica para cada hogar dentro de la cobertura de la red. Se detallarán todas las especificaciones necesarias para definir la red, (potencias, modulaciones y tipos de fibra) así como el instrumental y demás medios necesarios para operar con la misma. Aunque el diseño de una red FTTH contempla muchos más aspectos de los estudiados en el presente proyecto, se tomó como objetivo el diseño y planificación correspondientes a una sección de un área de escasa población donde la instalación se tomó como viable, obviando así pequeños detalles y centrándose en el despliegue de fibra óptica. Se pretende así ofrecer una solución de infraestructura doméstica de telecomunicaciones, apta para las futuras necesidades que implican la creciente demanda de servicios como internet de banda ancha o almacenamiento y procesado de aplicaciones en nube. La fibra óptica tiene mucho que ofrecer a las telecomunicaciones, y cada vez es más frecuente encontrar redes de fibra óptica como parte de un servicio de telecomunicaciones, tanto como para particulares como empresas. ABSTRACT. Aiming to strengthen knowledge in Telecommunications Systems, is intended to design a network for advanced services broadcasting, including digital TV, broadband internet and telephony, by using FTTH technology. This network will be entirely passive optic, and high bandwidth, PON type (Passive Optical Network) so that the transmitter beam is broadcasting to multiple optical fibers, branching out in different ways or joining them in the opposite. First, it is necessary to perform a theoretical study on the characteristics of the optical fiber, along with the properties of the active and passive elements that interact with it, to understand the technology that is based and offer a final solution according needs that arise. After an overview of the optical fiber technology, we proceed to study the characteristics and topologies access networks based on that, together with the requirements to face the network design and project management. System objectives will be determined, since the complexity of the network depends on factors such as the size and scope of it, or bandwidth. Later, the network will be designing in downstream architecture to deliver a single optical fiber to each household within the network area. All necessary specifications to define the network (power, modulation and fiber types) will be determined, as instruments and other means to operate it. Although FTTH network design includes many more aspects of those studied in this project, it was taken as objective the network design and planning corresponding to a section of a sparsely populated area where the facility was taken as feasible thus obviating small details and focus on the deployment of optical fiber. This is intended to provide a solution of household telecommunications infrastructure suitable for future needs involving the growing demand for services such as broadband internet or processing storage and cloud applications. The optical fiber has much to offer to telecommunications, and it is increasingly common to find fiber optic networks as part of a telecommunications service, both to individuals and businesses.
Resumo:
El presente documento es un estudio sobre el estado de conservación de la cubierta de madera del martinete de Navafría. El martinete de Navafría fue declarado Bien de Interés Cultural por la Junta de Castilla y León en 1998. Es el último martinete de cobre que queda en Europa y en él se realizaban calderos, braseros, calienta-camas y demás enseres de cobre. Se ha realizado una croquización de la cubierta del martinete y se han registrado las dimensiones de todas y cada una de las piezas. Se ha realizado una inspección de cada una de las piezas. En esta inspección se han descrito todas las patologías encontradas y se han generado unos croquis donde se representa el grado de ataque. Se han empleado Técnicas No Destructivas (TND) para determinar el grado de ataque de las diferentes patologías y para estimar las características estructurales de la madera. El grado de ataque que presenta la estructura es muy elevado y una de las cuatro vigas principales presenta una rotura total. Una vez analizado el estado de las patologías se ha modelizado la estructura para calcular los índices de agotamiento y comprobar si cumple con la normativa. Se ha obtenido que los índices de agotamiento son superiores a los permitidos. Por lo que no se puede garantizar la seguridad de la estructura. Después de todo el análisis se han redactado unas conclusiones y se han realizado una propuestas de actuación. Estas medidas se han planteado para mejorar la conservación y solucionar los problemas observados. Se ha realizado una propuesta de una nueva cubierta empleando materiales más ligeros y manteniendo el diseño estructural original. Se ha conseguido disminuir el peso de la cubierta un 27 %. Con estas nuevas cargas se ha recalculado de nuevo la cubierta y se ha comprobado que no cumple con las exigencias de la normativa vigente. Por ello es necesario un nuevo diseño que se adapte a la normativa y se recomienda que busque el mantener el aspecto original.
Resumo:
Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.
Resumo:
La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.
Resumo:
Las prestaciones y características de los dispositivos móviles actuales los sitúa a un nivel similar a los ordenadores de escritorio tradicionales en cuanto a funcionalidad y posibilidades de uso, añadiendo además la movilidad y la sensación de pertenencia al usuario que se deriva de ésta. Estas cualidades convierten a las plataformas móviles de computación en verdaderos ordenadores personales, y cada día es más popular su utilización en ámbitos distintos del ocio y las comunicaciones propiamente dichas, pasando a convertirse en herramientas de apoyo a la productividad también en el entorno profesional y corporativo. La utilización del dispositivo móvil como parte de una infraestructura de telecomunicaciones da lugar a nuevas expresiones de problemas clásicos de gestión y seguridad. Para tratar de abordarlos con la flexibilidad y la escalabilidad necesarias se plantean alternativas novedosas que parten de enfoques originales a estos problemas, como las ideas y conceptos que se engloban en la filosofía del Control de Acceso a la Red (Network Access Control, o NAC). La mayoría de los planteamientos de NAC se basan, en el ámbito de la seguridad, en comprobar ciertas características del dispositivo móvil para tratar de determinar hasta qué punto puede éste suponer una amenaza para los recursos de la red u otros usuarios de la misma. Obtener esta información de forma fiable resulta extremadamente difícil si se caracteriza el dispositivo mediante un modelo de caja blanca, muy adecuado dada la apertura propia de los sistemas operativos móviles actuales, muy diferentes de los de antaño, y la ausencia de un marco de seguridad efectivo en ellos. Este trabajo explora el Estado de la Técnica en este ámbito de investigación y plantea diferentes propuestas orientadas a cubrir las deficiencias de las soluciones propuestas hasta el momento y a satisfacer los estrictos requisitos de seguridad que se derivan de la aplicación del modelo de caja blanca, materializándose en última instancia en la definición de un mecanismo de evaluación de características arbitrarias de un cierto dispositivo móvil basado en Entornos Seguros de Ejecución (Trusted Execution Environments, o TEEs) con elevadas garantías de seguridad compatible con los planteamientos actuales de NAC. ABSTRACT The performance and features of today’s mobile devices make them able to compete with traditional desktop computers in terms of functionality and possible usages. In addition to this, they sport mobility and the stronger sense of ownership that derives from it. These attributes change mobile computation platforms into truly personal computers, allowing them to be used not only for leisure or as mere communications devices, but also as supports of productivity in professional and corporative environments. The utilization of mobile devices as part of a telecommunications infrastructure brings new expressions of classic management and security problems with it. In order to tackle them with appropriate flexibility and scalability, new alternatives are proposed based on original approaches to these problems, such as the concepts and ideas behind the philosophy of Network Access Control (NAC). The vast majority of NAC proposals are based, security-wise, on checking certain mobile device’s properties in order to evaluate how probable it is for it to become a threat for network resources or even other users of the infrastructure. Obtaining this information in a reliable and trustworthy way is extremely difficult if the device is characterized using a white-box model, which is the most appropriate if the openness of today’s mobile operating systems, very different from former ones, and the absence of an effective security framework are taken into account. This work explores the State of the Art related with the aforementioned field of research and presents different proposals targeted to overcome the deficiencies of current solutions and satisfy the strict security requirements derived from the application of the white box model. These proposals are ultimately materialized in the definition of a high-security evaluation procedure of arbitrary properties of a given mobile device based on Trusted Execution Environments (TEEs) which is compatible with modern NAC approaches.
Resumo:
Los puentes atirantados son una de las tipologías estructurales con mas desarrollo en los últimos años ya que cuentan con un ámbito de aplicación que se ha extendido en gran medida, llegando hasta el rango de luces de más de 1000 m. Por otra parte, para el caso de luces medias, este tipo de puentes aporta unas características resistentes y formales que los hacen muy adecuados en gran número de situaciones. Simultaneamente al importante número de realizaciones llevadas a cabo con esta tipología en los últimos años, se ha producido un gran desarrollo del conocimiento teórico de diferentes aspectos técnicos específicos de estos puentes, tanto a nivel de su comportamiento estructural como de la simulación y mejora de sus procesos constructivos. Estos desarrollos se han producido en gran parte gracias al avance en las capacidad de computación disponible hoy en día con los numerosos y cada vez más sofisticados programas comerciales de cálculo estructural, los cuales permiten la realización de análisis que hasta hace poco tiempo eran muy complicados de desarrollar. Una de las principales características de este tipo de estructuras, además de su elevado hiperestatismo, es la importancia del proceso constructivo, y en concreto del proceso de tesado de los cables, a la hora de conseguir alcanzar una situación final con la estructura en servicio que cumpla los requisitos establecidos a priori. Por este motivo se han llevado a cabo bastantes investigaciones orientadas a la optimización de los axiles a aplicar a los cables en el momento de su colocación y en su situación final. Parte de estos análisis se han centrado en particular en la posible influencia de ciertos parámetros geométricos y mecánicos aleatorios sobre los esfuerzos provocados sobre la estructura. Por otra parte, el propio comportamiento resistente de un tirante introduce ciertas incertidumbres en los formatos de seguridad asociados a los esfuerzos generados sobre ellos, en concreto en relación a la dependencia de estas fuerzas respecto de las cargas permanentes y a su consideración a nivel de coeficientes de seguridad asociados a dichas acciones. En vista de estos aspectos particulares se ha procedido a desarrollar la investigación que se expone a continuación, en la que se ha pretendido obtener un conocimiento adicional de algunos de estos aspectos para así poder contrastar la validez de las hipótesis que hoy en día son establecidas por la normativa vigente. De esta forma el planteamiento adoptado en esta tesis ha sido en primer lugar proponer un método novedoso de introducción de errores aleatorios sobre los esfuerzos o deformaciones de tesado de los cables, de tal manera que se pueda aplicar dicha técnica a distintas tipologías de puentes atirantados. Se pretende con ello conocer la influencia de dichos errores sobre el comportamiento de estas estructuras y valorar la magnitud de las desviaciones finalmente creadas respecto de la situación teórica. Una vez conocida la implicación que supone la aleatoriedad aplicada en la colocación de los tirantes, tanto cualitativa como cuantitativamente, se ha procedido a realizar un análisis de las consecuencias respecto de los formatos de seguridad que de estos datos se deducen. Señalar que esta tesis se ha centrado en el caso concreto de puentes atirantados construidos por voladizos sucesivos y con tableros de hormigón, dado el gran numero de puentes ejecutados con estas características, y con el objetivo de concentrar el estudio realizado en una tipología particular, pero de gran aplicación. Cable-stayed bridges represent one of the most developed structural typologies being used recently as it has a span range that can extend beyond 1000m. Furthermore, when it comes to bridges that span to a medium range we could say their shape and resistance are features that make this kind of bridge suitable for many different applications. Moreover, due to this type of bridge being used newly more extensively it has allowed for a better understanding of the theoretical knowledge of the various technical aspects both at a structural and simulation level in order to improve the constructions process of this type of bridge. Knowledge and development of these bridges can be attributed to the increasing apprehension of I.T. skills and the development of more advanced computer software with regards to structural calculations. The latter can aide more demanding analysis that was previously difficult to ascertain Defining features of this type of structure, besides its hyper static attributes, is the importance of the construction process, namely the cable tensioning process, which determines whether the requirements set out in the construction process will be met once the bridge is finished and traffic loads are applied. This is why much research has been conducted into the optimization of the axial forces to be applied to the cables. Focus, of part of this research, goes into the possible influences of random geometrical and mechanical parametres on the forces applied to the structure. We have therefore proceeded to develop research in which we have tried to gain more in depth knowledge which considers these aspects so that we can validate the hypothesis which are currently established in the regulations Firstly, the purpose of this thesis is to provide a new method to introduce random errors on the forces or deformations of cable tensioning so that this technique can be extended to various models of cable-staying bridges. It is important to highlight that this thesis has focused on cable-stayed bridges built through the balanced cantilever method and with concrete girders and considering there are many actual bridges with these characteristics the research has focused on a specific yet extensively applied method.
Resumo:
Los hipergrafos dirigidos se han empleado en problemas relacionados con lógica proposicional, bases de datos relacionales, linguística computacional y aprendizaje automático. Los hipergrafos dirigidos han sido también utilizados como alternativa a los grafos (bipartitos) dirigidos para facilitar el estudio de las interacciones entre componentes de sistemas complejos que no pueden ser fácilmente modelados usando exclusivamente relaciones binarias. En este contexto, este tipo de representación es conocida como hiper-redes. Un hipergrafo dirigido es una generalización de un grafo dirigido especialmente adecuado para la representación de relaciones de muchos a muchos. Mientras que una arista en un grafo dirigido define una relación entre dos de sus nodos, una hiperarista en un hipergrafo dirigido define una relación entre dos conjuntos de sus nodos. La conexión fuerte es una relación de equivalencia que divide el conjunto de nodos de un hipergrafo dirigido en particiones y cada partición define una clase de equivalencia conocida como componente fuertemente conexo. El estudio de los componentes fuertemente conexos de un hipergrafo dirigido puede ayudar a conseguir una mejor comprensión de la estructura de este tipo de hipergrafos cuando su tamaño es considerable. En el caso de grafo dirigidos, existen algoritmos muy eficientes para el cálculo de los componentes fuertemente conexos en grafos de gran tamaño. Gracias a estos algoritmos, se ha podido averiguar que la estructura de la WWW tiene forma de “pajarita”, donde más del 70% del los nodos están distribuidos en tres grandes conjuntos y uno de ellos es un componente fuertemente conexo. Este tipo de estructura ha sido también observada en redes complejas en otras áreas como la biología. Estudios de naturaleza similar no han podido ser realizados en hipergrafos dirigidos porque no existe algoritmos capaces de calcular los componentes fuertemente conexos de este tipo de hipergrafos. En esta tesis doctoral, hemos investigado como calcular los componentes fuertemente conexos de un hipergrafo dirigido. En concreto, hemos desarrollado dos algoritmos para este problema y hemos determinado que son correctos y cuál es su complejidad computacional. Ambos algoritmos han sido evaluados empíricamente para comparar sus tiempos de ejecución. Para la evaluación, hemos producido una selección de hipergrafos dirigidos generados de forma aleatoria inspirados en modelos muy conocidos de grafos aleatorios como Erdos-Renyi, Newman-Watts-Strogatz and Barabasi-Albert. Varias optimizaciones para ambos algoritmos han sido implementadas y analizadas en la tesis. En concreto, colapsar los componentes fuertemente conexos del grafo dirigido que se puede construir eliminando ciertas hiperaristas complejas del hipergrafo dirigido original, mejora notablemente los tiempos de ejecucion de los algoritmos para varios de los hipergrafos utilizados en la evaluación. Aparte de los ejemplos de aplicación mencionados anteriormente, los hipergrafos dirigidos han sido también empleados en el área de representación de conocimiento. En concreto, este tipo de hipergrafos se han usado para el cálculo de módulos de ontologías. Una ontología puede ser definida como un conjunto de axiomas que especifican formalmente un conjunto de símbolos y sus relaciones, mientras que un modulo puede ser entendido como un subconjunto de axiomas de la ontología que recoge todo el conocimiento que almacena la ontología sobre un conjunto especifico de símbolos y sus relaciones. En la tesis nos hemos centrado solamente en módulos que han sido calculados usando la técnica de localidad sintáctica. Debido a que las ontologías pueden ser muy grandes, el cálculo de módulos puede facilitar las tareas de re-utilización y mantenimiento de dichas ontologías. Sin embargo, analizar todos los posibles módulos de una ontología es, en general, muy costoso porque el numero de módulos crece de forma exponencial con respecto al número de símbolos y de axiomas de la ontología. Afortunadamente, los axiomas de una ontología pueden ser divididos en particiones conocidas como átomos. Cada átomo representa un conjunto máximo de axiomas que siempre aparecen juntos en un modulo. La decomposición atómica de una ontología es definida como un grafo dirigido de tal forma que cada nodo del grafo corresponde con un átomo y cada arista define una dependencia entre una pareja de átomos. En esta tesis introducimos el concepto de“axiom dependency hypergraph” que generaliza el concepto de descomposición atómica de una ontología. Un modulo en una ontología correspondería con un componente conexo en este tipo de hipergrafos y un átomo de una ontología con un componente fuertemente conexo. Hemos adaptado la implementación de nuestros algoritmos para que funcionen también con axiom dependency hypergraphs y poder de esa forma calcular los átomos de una ontología. Para demostrar la viabilidad de esta idea, hemos incorporado nuestros algoritmos en una aplicación que hemos desarrollado para la extracción de módulos y la descomposición atómica de ontologías. A la aplicación la hemos llamado HyS y hemos estudiado sus tiempos de ejecución usando una selección de ontologías muy conocidas del área biomédica, la mayoría disponibles en el portal de Internet NCBO. Los resultados de la evaluación muestran que los tiempos de ejecución de HyS son mucho mejores que las aplicaciones más rápidas conocidas. ABSTRACT Directed hypergraphs are an intuitive modelling formalism that have been used in problems related to propositional logic, relational databases, computational linguistic and machine learning. Directed hypergraphs are also presented as an alternative to directed (bipartite) graphs to facilitate the study of the interactions between components of complex systems that cannot naturally be modelled as binary relations. In this context, they are known as hyper-networks. A directed hypergraph is a generalization of a directed graph suitable for representing many-to-many relationships. While an edge in a directed graph defines a relation between two nodes of the graph, a hyperedge in a directed hypergraph defines a relation between two sets of nodes. Strong-connectivity is an equivalence relation that induces a partition of the set of nodes of a directed hypergraph into strongly-connected components. These components can be collapsed into single nodes. As result, the size of the original hypergraph can significantly be reduced if the strongly-connected components have many nodes. This approach might contribute to better understand how the nodes of a hypergraph are connected, in particular when the hypergraphs are large. In the case of directed graphs, there are efficient algorithms that can be used to compute the strongly-connected components of large graphs. For instance, it has been shown that the macroscopic structure of the World Wide Web can be represented as a “bow-tie” diagram where more than 70% of the nodes are distributed into three large sets and one of these sets is a large strongly-connected component. This particular structure has been also observed in complex networks in other fields such as, e.g., biology. Similar studies cannot be conducted in a directed hypergraph because there does not exist any algorithm for computing the strongly-connected components of the hypergraph. In this thesis, we investigate ways to compute the strongly-connected components of directed hypergraphs. We present two new algorithms and we show their correctness and computational complexity. One of these algorithms is inspired by Tarjan’s algorithm for directed graphs. The second algorithm follows a simple approach to compute the stronglyconnected components. This approach is based on the fact that two nodes of a graph that are strongly-connected can also reach the same nodes. In other words, the connected component of each node is the same. Both algorithms are empirically evaluated to compare their performances. To this end, we have produced a selection of random directed hypergraphs inspired by existent and well-known random graphs models like Erd˝os-Renyi and Newman-Watts-Strogatz. Besides the application examples that we mentioned earlier, directed hypergraphs have also been employed in the field of knowledge representation. In particular, they have been used to compute the modules of an ontology. An ontology is defined as a collection of axioms that provides a formal specification of a set of terms and their relationships; and a module is a subset of an ontology that completely captures the meaning of certain terms as defined in the ontology. In particular, we focus on the modules computed using the notion of syntactic locality. As ontologies can be very large, the computation of modules facilitates the reuse and maintenance of these ontologies. Analysing all modules of an ontology, however, is in general not feasible as the number of modules grows exponentially in the number of terms and axioms of the ontology. Nevertheless, the modules can succinctly be represented using the Atomic Decomposition of an ontology. Using this representation, an ontology can be partitioned into atoms, which are maximal sets of axioms that co-occur in every module. The Atomic Decomposition is then defined as a directed graph such that each node correspond to an atom and each edge represents a dependency relation between two atoms. In this thesis, we introduce the notion of an axiom dependency hypergraph which is a generalization of the atomic decomposition of an ontology. A module in the ontology corresponds to a connected component in the hypergraph, and the atoms of the ontology to the strongly-connected components. We apply our algorithms for directed hypergraphs to axiom dependency hypergraphs and in this manner, we compute the atoms of an ontology. To demonstrate the viability of this approach, we have implemented the algorithms in the application HyS which computes the modules of ontologies and calculate their atomic decomposition. In the thesis, we provide an experimental evaluation of HyS with a selection of large and prominent biomedical ontologies, most of which are available in the NCBO Bioportal. HyS outperforms state-of-the-art implementations in the tasks of extracting modules and computing the atomic decomposition of these ontologies.
Resumo:
El presente trabajo denominado “Modelo simplificado de neumático de automóvil en elementos finitos para análisis transitorio de las estructuras de los vehículos” ha sido elaborado en la cátedra de Transportes de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Su principal objetivo es el modelado y estudio de un neumático mediante el programa de elementos finitos Ansys, con el fin de obtener datos fiables acerca de su comportamiento bajo distintas situaciones. Para ello, en primer lugar se han estudiado los distintos componentes que conforman los neumáticos, poniendo especial énfasis en los materiales, que son de vital importancia para el desarrollo del trabajo. Posteriormente, se ha analizado el fundamento matemático que subyace en los programas comerciales de elementos finitos, adquiriendo una mayor seguridad en el uso de éstos, así como un mejor conocimiento de las limitaciones que presentan. Básicamente, el método matemático de los elementos finitos (MEF) consiste en la discretización de problemas continuos para resolver problemas complejos, algo que por los métodos tradicionales sería inabordable con ese grado de precisión debido a la cantidad de variables manejadas. Es ampliamente utilizado hoy en día, y cada vez más, para resolver problemas de distintas disciplinas de la ingeniería como la Mecánica del Sólido, la Mecánica de Fluidos o el Electromagnetismo. Por otro lado, como los neumáticos son un sistema complejo, el estudio de su comportamiento ha supuesto y supone un desafío importante tanto para los propios fabricantes, como para las marcas de vehículos y, en el ámbito de este proyecto, para el equipo Upm Racing. En este Trabajo Fin de Grado se han investigado los distintos modelos de neumático que existen, los cuales según su fundamento matemático pueden ser clasificados en: - Modelos analíticos - Modelos empíricos - Modelos de elementos finitos Con la intención de desarrollar un modelo novedoso de elementos finitos, se ha puesto especial hincapié en conocer las distintas posibilidades para el modelizado de neumáticos, revisando una gran cantidad de publicaciones llevadas a cabo en los ámbitos académico y empresarial. Después de toda esta fase introductoria y de recogida de información se ha procedido a la realización del modelo. Éste tiene tres fases claramente diferenciadas que son: - Pre-procesado - Solución - Post-procesado La fase de pre-procesado comprende toda la caracterización del modelo real al modelo matemático. Para ello es necesario definir los materiales, la estructura de los refuerzos, la presión del aire, la llanta o las propiedades del contacto neumático-suelo. Además se lleva a cabo el mallado del modelo, que es la discretización de dicho modelo para después ser resuelto por los algoritmos del programa. Este mallado es sumamente importante puesto que en problemas altamente no-lineales como éste, una malla no adecuada puede dar lugar a conflictos en la resolución de los sistemas de ecuaciones, originando errores en la resolución. Otro aspecto que se ha de incluir en esta fase es la definición de las condiciones de contorno, que son aquellas condiciones impuestas al sistema que definen el estado inicial del éste. Un ejemplo en resolución de estructuras podría ser la imposición de giros y desplazamientos nulos en el extremo de una viga encontrarse empotrado en este punto. La siguiente fase es la de solución del modelo. En ella se aplican las cargas que se desean al sistema. Las principales que se han llevado a cabo han sido: desplazamientos del eje del neumático, rodadura del neumático con aceleración constante y rodadura del neumático con velocidad constante. La última fase es la de post-procesado. En esta etapa se analizan los resultados proporcionados por la resolución con el fin de obtener los datos de comportamiento del neumático que se deseen. Se han estudiado principalmente tres variables que se consideran de suma importancia: - Rigidez radial estática - Características de la huella de contacto - Coeficiente de resistencia a la rodadura Seguidamente, se presentan las conclusiones generales de estos resultados, reflexionando sobre los valores obtenidos, así como sobre los problemas surgidos durante la realización del trabajo. Además, se realiza una valoración de los impactos que puede suponer a nivel económico, social y medioambiental. Por último, se ha elaborado la planificación y presupuesto del proyecto para plasmar los tiempos de trabajo y sus costos. Además, se han propuesto líneas futuras con las que avanzar y/o completar este trabajo.
Resumo:
El objetivo de esta tesis es la caracterización de la generación térmica representativa de la existente en la realidad, para posteriormente proceder a su modelización y simulación integrándolas en una red eléctrica tipo y llevar a cabo estudios de optimización multiobjetivo económico medioambiental. Para ello, en primera instancia se analiza el contexto energético y eléctrico actual, y más concretamente el peninsular, en el que habiendo desaparecido las centrales de fuelóleo, sólo quedan ciclos combinados y centrales de carbón de distinto rango. Seguidamente se lleva a cabo un análisis de los principales impactos medioambientales de las centrales eléctricas basadas en combustión, representados sobre todo por sus emisiones de CO2, SO2 y NOx, de las medidas de control y mitigación de las mismas y de la normativa que les aplica. A continuación, a partir de las características de los combustibles y de la información de los consumos específicos, se caracterizan los grupos térmicos frente a las funciones relevantes que definen su comportamiento energético, económico y medioambiental, en términos de funciones de salida horarias dependiendo de la carga. Se tiene en cuenta la posibilidad de desnitrificación y desulfuración. Dado que las funciones objetivo son múltiples, y que están en conflicto unas con otras, se ha optado por usar métodos multiobjetivo que son capaces de identificar el contorno de puntos óptimos o frente de Pareto, en los que tomando una solución no existe otra que lo mejore en alguna de las funciones objetivo sin empeorarlo en otra. Se analizaron varios métodos de optimización multiobjetivo y se seleccionó el de las ε constraint, capaz de encontrar frentes no convexos y cuya optimalidad estricta se puede comprobar. Se integró una representación equilibrada de centrales de antracita, hulla nacional e importada, lignito y ciclos combinados en la red tipo IEEE-57, en la que se puede trabajar con siete centrales sin distorsionar demasiado las potencias nominales reales de los grupos, y se programó en Matlab la resolución de flujos óptimos de carga en alterna con el método multiobjetivo integrado. Se identifican los frentes de Pareto de las combinaciones de coste y cada uno de los tres tipos de emisión, y también el de los cuatro objetivos juntos, obteniendo los resultados de costes óptimos del sistema para todo el rango de emisiones. Se valora cuánto le cuesta al sistema reducir una tonelada adicional de cualquier tipo de emisión a base de desplazarse a combinaciones de generación más limpias. Los puntos encontrados aseguran que bajo unas determinadas emisiones no pueden ser mejorados económicamente, o que atendiendo a ese coste no se puede reducir más allá el sistema en lo relativo a emisiones. También se indica cómo usar los frentes de Pareto para trazar estrategias óptimas de producción ante cambios horarios de carga. ABSTRACT The aim of this thesis is the characterization of electrical generation based on combustion processes representative of the actual power plants, for the latter modelling and simulation of an electrical grid and the development of economic- environmental multiobjective optimization studies. In this line, the first step taken is the analysis of the current energetic and electrical framework, focused on the peninsular one, where the fuel power plants have been shut down, and the only ones remaining are coal units of different types and combined cycle. Then it is carried out an analysis of the main environmental impacts of the thermal power plants, represented basically by the emissions of CO2, SO2 y NOx, their control and reduction measures and the applicable regulations. Next, based on the combustibles properties and the information about the units heat rates, the different power plants are characterized in relation to the outstanding functions that define their energy, economic and environmental behaviour, in terms of hourly output functions depending on their load. Optional denitrification and desulfurization is considered. Given that there are multiple objectives, and that they go in conflictive directions, it has been decided the use of multiobjective techniques, that have the ability of identifying the optimal points set, which is called the Pareto front, where taken a solution there will be no other point that can beat the former in an objective without worsening it in another objective. Several multiobjective optimization methods were analysed and pondered, selecting the ε constraint technique, which is able to find no convex fronts and it is opened to be tested to prove the strict Pareto optimality of the obtained solutions. A balanced representation of the thermal power plants, formed by anthracite, lignite, bituminous national and imported coals and combined cycle, was integrated in the IEEE-57 network case. This system was selected because it deals with a total power that will admit seven units without distorting significantly the actual size of the power plants. Next, an AC optimal power flow with the multiobjective method implemented in the routines was programmed. The Pareto fronts of the combination of operative costs with each of the three emissions functions were found, and also the front of all of them together. The optimal production costs of the system for all the emissions range were obtained. It is also evaluated the cost of reducing an additional emission ton of any of the emissions when the optimal production mix is displaced towards cleaner points. The obtained solutions assure that under a determined level of emissions they cannot be improved economically or, in the other way, at a determined cost it cannot be found points of lesser emissions. The Pareto fronts are also applied for the search of optimal strategic paths to follow the hourly load changes.
Resumo:
El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.
Resumo:
La lectura histórica del territorio en relación con el sistema agroalimentario aporta elementos claves para reconstruir el sistema territorial, aprovechando la oportunidad que ofrece un renovado interés por la alimentación local y sostenible. El análisis histórico transdisciplinar incorpora variables espaciales, económicas, energéticas, urbanísticas, agronómicas y nutricionales y se centra en el tramo medio del valle del Duero (Castilla y León, España). Se trata de un territorio tradicionalmente agrícola, donde un producto de la tierra -el vino- es motor de innovación y ha transformado paisajes y estructuras. Aún así, se enfrenta a un desarrollo desigual e ilustra las contradicciones del mundo rural en un contexto alimentario globalizado. El análisis de la región desde 1900 permite constatar la relación entre la organización del territorio, el sistema agroalimentario, y cada una de las etapas nutricionales: a) la superación de la desnutrición está asociada a una agricultura familiar y al territorio de proximidad, que persiste en la zona hasta 1950; b) el modelo de consumo de masas y sobrealimentación, se basa en una agricultura industrializada y un territorio polarizado ligado al desarrollismo, que se extiende hasta 1985; c) finalmente, el modelo de consumo segmentado se apoya en una agricultura terciarizada y un territorio de enclaves en un contexto de globalización, que dura hasta nuestros días. En la última fase aparecen nuevos modelos alternativos de reconstrucción territorial con sistemas emergentes que reconectan campo y ciudad, consumo y producción desde sistemas de alimentación sostenible. Conviven dos tendencias: una hacia la jerarquización y el productivismo tecnificado y otra hacia la multifuncionalidad y la recampesinización que se reapropia de las innovaciones técnicas. La adaptación a las condiciones locales y aprovechar los recursos endógenos son elementos clave de sostenibilidad ambiental y social. Incorporar la alimentación en la planificación urbana y territorial desde una perspectiva agroecológica reduciría la insostenibilidad del sistema alimentario. Las propuestas de ordenación han de tener en cuenta la tipología de municipios, sus interrelaciones, las características agrológicas y productivas, la relación del muncipcon los núcleos de referencia y con las poblaciones que concentran las necesidades de alimentación. Se debe considerar asimismo la disponiblidad de infraestructuras, de equipamientos y de capital humano y relacional para fijar cadena de valor local. La ordenación urbanística cuenta ya con mecanismos como la clasificación del suelo, la regulación de usos y el diseño de redes de equipamientos que inciden sobre la autonomía de los sistema de alimentación locales y permiten fomentar la biodiversidad y las variedades locales. Son mecanismos insuficientemente aprovechados. Una adecuada utilización de los instrumentos de ordenación existentes, junto con el desarrollo de otros nuevos mejorarían de forma significativa la resiliencia de los sistemas agroalimentarios locales. ABSTRACT The historical review of the relationship between territory and agrifood system provides key lessons to help rebuild the territorial fabric, seizing the opportunity offered by a renewed interest in local and sustainable food. The historical transdisciplinary analysis spans spatial, economic, energy, agronomic and nutritional variables, focuses on the middle reaches of the Douro valley (Castilla y Leon, Spain). This a traditionally agricultural region, which has managed to turn a land product – the wine– into an engine of innovation which has transformed landscapes and structures. Even so, it faces the challenges of uneven development and illustrates the contradictions of the rural world in a globalized context. After the analysis of the evolution of the region since 1900, it can be concluded that the territory has been organized over time according to three models of food system that are in turn linked to different nutritional stages: a) the nutritional stage of overcoming malnutrition is related to family agriculture and a territory of proximity, which persists in the studied area until 1950; b) the model of mass consumption and overeating, was built on an industrialized agriculture and a polarized territory with unhindered development, which runs until 1985; c) and, finally, the model of consumer segmentation associated with terciarized agriculture and enclave territories in the context of globalization, which lasts until present time. During this last stage new alternative models of small-scale territorial reconstruction appear, linked to emerging systems that, based on sustainable food systems, reconnect city and countryside, consumption and production. Actually two trends coexist: one towards hierarchisation and tech-based productivism, and another one towards multifunctionality and peasantization that reappropriates technical innovations. The adaptation to local conditions taking advantage of local resources is a key element of environmental and social sustainability. Integrating food into urban and regional planning from an agroecological perspective would help reduce the current unsustainability of the food system. Planning proposals for municipalities need to consider their typology, agrological characteristics, productive capacity, links to other municipalities, proximity to reference nodes and population concentrations with food demands that need to be met. Availability of infrastructure, facilities, as well as human and relational capital to establish and reinforce local value chains is another aspect to consider in planning proposals. Spatial and urban planning are already equipped with mechanisms, such as land classification and the design of facilities’ networks, that affect the autonomy and stability of local food systems and can support biodiversity and adoption of local varieties. We are, however, missing opportunities. An adequate use of existing planning tools and the development of new ones could significantly improve the resilience of local agrifood systems.