88 resultados para Cálculo algébrico
em Universidad Politécnica de Madrid
Resumo:
Los proyectos de infraestructuras lineales son implantados en el territorio, y la información geográfica de estos proyectos tiene la capacidad de representar la forma, dimensiones y ubicación de estas infraestructuras, así como los límites de las diferentes propiedades que atraviesa. Esta información geográfica ayuda al entendimiento de la afección de la instalación sobre las diferentes propiedades inmuebles, y por otro lado permite cuantificar automáticamente, la magnitud de cada tipo de afección y así utilizarse como mecanismo de notificación formal a los propietarios de las parcelas afectadas. En este trabajo se presenta cómo se ha integrado en el flujo de trabajo de Red Eléctrica de España (REE), las tareas relacionadas con el cálculo de afecciones de las nuevas instalaciones de Alta Tensión, permitiendo visualizar los proyectos mediante: un visor WMS, un globo 3D mediante KML, o como un conjunto de reseñas gráficas de cada parcela. Estas soluciones han permitido optimizar los procesos de cálculo de afecciones y la generación de las Relaciones de Bienes y Derechos (RBD) afectados en distintos formatos: gráficos o alfanuméricos e interactivos 2D y 3D, multiplicándose las posibilidades de automatización y visualización, y produciendo un acercamiento entre el mundo real y el mundo virtual. Linear infrastructure projects are implemented in the territory, and geographic information of these projects has the ability to represent the shape, size and location of these infrastructures, and the limits of the different properties it crosses. This geographic information helps understanding the affection of the installation on different properties, and to automatically quantifies the magnitude of each type of affection and well used as a mechanism to formally notify owners of affected parcels. In this paper we present how the tasks related to the affection calculation of new high-voltage installations is integrated into the workflow of Red Eléctrica de España (REE), allowing to publish and then to see the projects over internet in a standardized way by: WMS viewer, a 3D globe using KML, or review a set of graphs of each parcel. These solutions have allowed us to optimize the processes of calculation of affection and the generation of the Assets and Rights (RBD) affected document across different formats or alphanumeric graphics and interactive 2D and 3D, multiplying the possibilities of automation and visualization, and producing an approach between the real and the virtual world.
Resumo:
El terremoto ocurrido el 12 de enero de 2010 en Haití devastó la ciudad de Puerto Príncipe, interrumpiendo la actividad social y económica. El proyecto Sismo-Haití surgió como respuesta a la solicitud de ayuda del país ante esta catástrofe y está siendo llevado a cabo por el grupo de investigación en Ingeniería Sísmica de la Universidad Politécnica de Madrid, especialistas en geología y sismología de las universidades Complutense de Madrid, Almería y Alicante, el Consejo Superior de Iinvestigaciones Científicas y técnicos locales. En el marco del citado proyecto se realizará un estudio de la amenaza sísmica, con la consiguiente obtención de mapas de aceleraciones que sirvan de base para una primera normativa sismorresistente en el país. Asimismo, se llevará a cabo un estudio de riesgo sísmico en alguna población piloto, incluyendo estudios de microzonación y vulnerabilidad sísmica, así como la estimación de daños y pérdidas humanas ante posibles sismos futuros, cuyos resultados irán dirigidos al diseño de planes de emergencia. En este trabajo se presentan los primeros avances del proyecto. Uno de los objetivos más importantes del proyecto Sismo-Haití es la formación de técnicos en el país a través de la transmisión de conocimientos y experiencia que el grupo de trabajo tiene en materia de peligrosidad y riesgo sísmico, así como en todo lo relacionado con la gestión de la emergencia.
Resumo:
El proyecto se centra en el cálculo de las emisiones de CO2 en una empresa, agrupando estas emisiones en los alcances 1 y 2 partiendo del consumo de combustibles fósiles y energía eléctrica respectivamente. Analizar los resultados y elaborar un plan con una serie de medidas generales para reducir las emisiones.
Resumo:
La importancia de la seguridad en la aplicación de la tecnología nuclear impregna todas las tareas asociadas a la utilización de esta fuente de energía, comenzando por la fase de diseño, explotación y posterior desmantelamiento o gestión de residuos. En todos estos pasos, las herramientas de simulación computacional juegan un papel esencial como guía para el diseño, apoyo durante la operación o predicción de la evolución isotópica de los materiales del reactor. Las constantes mejoras en cuanto a recursos computacionales desde mediados del siglo XX hasta este momento así como los avances en los métodos de cálculo utilizados, permiten tratar la complejidad de estas situaciones con un detalle cada vez mayor, que en ocasiones anteriores fue simplemente descartado por falta de capacidad de cálculo o herramientas adecuadas. El presente trabajo se centra en el desarrollo de un método de cálculo neutrónico para reactores de agua ligera basado en teoría de difusión corregida con un nivel de detalle hasta la barra de combustible, considerando un número de grupos de energía mayor que los tradicionales rápido y térmico, y modelando la geometría tridimensional del núcleo del reactor. La capacidad de simular tanto situaciones estacionarias con posible búsqueda de criticidad, como la evolución durante transitorios del flujo neutrónico ha sido incluida, junto con un algoritmo de cálculo de paso de tiempo adaptativo para mejorar el rendimiento de las simulaciones. Se ha llevado a cabo un estudio de optimización de los métodos de cálculo utilizados para resolver la ecuación de difusión, tanto en el lazo de iteración de fuente como en los métodos de resolución de sistemas lineales empleados en las iteraciones internas. Por otra parte, la cantidad de memoria y tiempo de computación necesarios para resolver problemas de núcleo completo en malla fina obliga a introducir un método de paralelización en el cálculo; habiéndose aplicado una descomposición en subdominios basada en el método alternante de Schwarz acompañada de una aceleración nodal. La aproximación de difusión debe ser corregida si se desea reproducir los valores con una precisión cercana a la obtenida con la ecuación de transporte. Los factores de discontinuidad de la interfase utilizados para esta corrección no pueden en la práctica ser calculados y almacenados para cada posible configuración de una barra de combustible de composición determinada en el interior del reactor. Por esta razón, se ha estudiado una parametrización del factor de discontinuidad según la vecindad que permitiría tratar este factor como una sección eficaz más, parametrizada en función de valores significativos del entorno de la barra de material. Por otro lado, también se ha contemplado el acoplamiento con códigos termohidráulicos, lo que permite realizar simulaciones multifísica y producir resultados más realistas. Teniendo en cuenta la demanda creciente de la industria nuclear para que los resultados realistas sean suministrados junto con sus márgenes de confianza, se ha desarrollado la posibilidad de obtener las sensibilidades de los resultados mediante el cálculo del flujo adjunto, para posteriormente propagar las incertidumbres de las secciones eficaces a los cálculos de núcleo completo. Todo este trabajo se ha integrado en el código COBAYA3 que forma parte de la plataforma de códigos desarrollada en el proyecto europeo NURESIM del 6º Programa Marco. Los desarrollos efectuados han sido verificados en cuanto a su capacidad para modelar el problema a tratar; y la implementación realizada en el código ha sido validada numéricamente frente a los datos del benchmark de transitorio accidental en un reactor PWR con combustible UO2/MOX de la Agencia de Energía Nuclear de la OCDE, así como frente a otros benchmarks de LWR definidos en los proyectos europeos NURESIM y NURISP.
Resumo:
La presente tesis doctoral tiene por objeto el estudio y análisis de técnicas y modelos de obtención de parámetros biofísicos e indicadores ambientales, de manera automatizada a partir de imágenes procedentes de satélite de alta resolución temporal. En primer lugar se revisan los diferentes programas espaciales de observación del territorio, con especial atención a los que proporcionan dicha resolución. También se han revisado las metodologías y procesos que permiten la obtención de diferentes parámetros cuantitativos y documentos cualitativos, relacionados con diversos aspectos de las cubiertas terrestres, atendiendo a su adaptabilidad a las particularidades de los datos. En segundo lugar se propone un modelo de obtención de parámetros ambientales, que integra información proveniente de sensores espaciales y de otras fuentes auxiliares utilizando, en cierta medida, las metodologías presentadas en apartados anteriores y optimizando algunas de las referidas o proponiendo otras nuevas, de manera que se permita dicha obtención de manera eficiente, a partir de los datos disponibles y de forma sistemática. Tras esta revisión de metodologías y propuesta del modelo, se ha procedido a la realización de experimentos, con la finalidad de comprobar su comportamiento en diferentes casos prácticos, depurar los flujos de datos y procesos, así como establecer las situaciones que pueden afectar a los resultados. De todo ello se deducirá la evaluación del referido modelo. Los sensores considerados en este trabajo han sido MODIS, de alta resolución temporal y Thematic Mapper (TM), de media resolución espacial, por tratarse de instrumentos de referencia en la realización de estudios ambientales. También por la duración de sus correspondientes misiones de registro de datos, lo que permite realizar estudios de evolución temporal de ciertos parámetros biofísicos, durante amplios periodos de tiempo. Así mismo. es de destacar que la continuidad de los correspondientes programas parece estar asegurada. Entre los experimentos realizados, se ha ensayado una metodología para la integración de datos procedentes de ambos sensores. También se ha analizado un método de interpolación temporal que permite obtener imágenes sintéticas con la resolución espacial de TM (30 m) y la temporal de MODIS (1 día), ampliando el rango de aplicación de este último sensor. Asimismo, se han analizado algunos de los factores que afectan a los datos registrados, tal como la geometría de la toma de los mismos y los episodios de precipitación, los cuales alteran los resultados obtenidos. Por otro lado, se ha comprobado la validez del modelo propuesto en el estudio de fenómenos ambientales dinámicos, en concreto la contaminación orgánica de aguas embalsadas. Finalmente, se ha demostrado un buen comportamiento del modelo en todos los casos ensayados, así como su flexibilidad, lo que le permite adaptarse a nuevos orígenes de datos, o nuevas metodologías de cálculo. Abstract This thesis aims to the study and analysis of techniques and models, in order to obtain biophysical parameters and environmental indicators in an automated way, using high temporal resolution satellite data. Firstly we have reviewed the main Earth Observation Programs, paying attention to those that provide high temporal resolution. Also have reviewed the methodologies and process flow diagrams in order to obtain quantitative parameters and qualitative documents, relating to various aspects of land cover, according to their adaptability to the peculiarities of the data. In the next stage, a model which allows obtaining environmental parameters, has been proposed. This structure integrates information from space sensors and ancillary data sources, using the methodologies presented in previous sections that permits the parameters calculation in an efficient and automated way. After this review of methodologies and the proposal of the model, we proceeded to carry out experiments, in order to check the behavior of the structure in real situations. From this, we derive the accuracy of the model. The sensors used in this work have been MODIS, which is a high temporal resolution sensor, and Thematic Mapper (TM), which is a medium spatial resolution instrument. This choice was motivated because they are reference sensors in environmental studies, as well as for the duration of their corresponding missions of data logging, and whose continuity seems assured. Among the experiments, we tested a methodology that allows the integration of data from cited sensors, we discussed a proposal for a temporal interpolation method for obtaining synthetic images with spatial resolution of TM (30 m) and temporal of MODIS (1 day), extending the application range of this one. Furthermore, we have analyzed some of the factors that affect the recorded data, such as the relative position of the satellite with the ground point, and the rainfall events, which alter the obtained results. On the other hand, we have proven the validity of the proposed model in the study of the organic contamination in inland water bodies. Finally, we have demonstrated a good performance of the proposed model in all cases tested, as well as its flexibility and adaptability.
Resumo:
Se presenta un estudio comparativo del cálculo sísmico de cinco puentes diferentes, utilizando diversos procedimientos. El objetivo es establecer la validez de los métodos sencillos, habitualmente utilizados, en función del tipo estructural del puente. El desarrollo se centra en el estudio de la importancia de las cargas dinámicas producidas en un puente situado en una zona sísmica intermedia, respecto a las cargas elásticas exigidas por las Norma de Cálculo de Puentes de Carreteras, haciendo especial mención de las diferencias que aparecen cuando la estructura está realizada en hormigón pretensado.
Resumo:
En la actual norma ministerial para la determinación de las acciones en puentes de ferrocarril se presta una gran importancia a la fijación de las características dinámicas de la estructura, a partir de las cuales se determina el coeficiente de impacto. Entre los casos peor estudiados se encuentra el de los puentes de vía doble, para los que se recomiennda una frecuencia de cálculo igual a la de un puente de la misma luz y vía simple. En el artículo se pretende analizar esta norma mediante el estudio de las frecuencias de vibración del sistema.
Resumo:
Tradicionalmente, el cálculo dinámico no-lineal de estructuras ha sido una tarea ardua para el ingeniero ya que comporta cierta especialización en el ingeniero habituado al cálculo estático. El necesario conocimiento de técnicas de modelado en dinámica, de tiempos de integración, etc., y la dificultad de reconocer la influencia en el comportamiento de ciertas modificaciones de diseño, hace útil la existencia de un método más simplificado y transparente que permita análisis lineal, imprescindible por ejemplo en procesos de reacondicionamiento sísmico. En este artículo se presenta un método simplificado para analizar dinámicamente puentes a través de acelerogramas y cuyas principales ventajas son su sencillez, rápidez y bajo coste, permitiendo recoger el comportamiento dinámico y determinar el grado de plastificación, esfuerzos y desplazamientos con suficiente aproximación en puentes de altas complejidades.
Resumo:
Con objeto de minimizar la fricción y desgaste, la industria diseña sus máquinas para que estas funcionen en régimen elastohidrodinámico durante el mayor tiempo posible. Científicos de todos los tiempos han dedicado sus vidas al estudio de la lubricación en régimen de película gruesa. Con especial interés, Ingenieros del último siglo y medio han realizado multitud de experimentos y, con los medios disponibles en su momento, han analizado y tabulado resultados, con objeto de disponer de herramientas que permitieran calcular la fuerza de fricción en contactos EHD. En el presente trabajo de tesis se ha elaborado un modelo propio de lubricación en régimen elastohidrodinámico. Este modelo permite la resolución del problema EHD por dos vías. En primer lugar la resolución analítica del problema EHD permite obtener de forma rápida valores aproximados de coeficiente de fricción y espesor de película, comprobar las hipótesis de cada modelo, y estudiar la influencia de los parámetros. En segundo lugar es posible resolver el problema EHD de forma numérica, realizándose un cálculo totalmente paramétrico de coeficiente de fricción y de la película lubricante. El cálculo se realiza de forma interactiva y a través de una herramienta informática. El objetivo del trabajo es disponer de una herramienta que aplicada a cualquier contacto tribológico (engranajes, rodamientos, etc), permita estudiar su eficiencia, predecir flash de temperatura, posibilidad de fallo por desgaste o gripado. Para el ajuste del modelo ha sido necesaria la realización de unos experimentos previos de ajuste de los equipos de ensayo. Los equipos de ensayo de laboratorio nos ofrecen unos resultados de coeficiente de fricción. Estos valores son introducidos en los modelos de la teoría elastohidrodinámica clásica disponibles en la literatura. Los modelos nos permiten estimar valores teóricos de coeficiente de fricción y espesor de película, que son contrastados con los valores de coeficiente de fricción obtenidos experimentalmente. Por repetición de experiencias ha sido posible ajustar los parámetros de material y lubricante que definen los modelos, hasta ajustar los resultados calculados con los obtenidos por vía experimental. Este ajuste ha permitido comprobar los cálculos y validar las hipótesis de los regímenes y condiciones de operación de los equipos de ensayo. Finalmente se han empleado los parámetros de material y lubricante obtenidos, para formar el modelo EHD propio. Introduciendo en el modelo los resultados obtenidos, es posible calcular el espesor de película y el coeficiente de fricción, para cualquier condición de velocidad, temperatura y carga. Para la elaboración de este modelo se ha partido de las ecuaciones de estado de la hidrodinámica (Ley de Continuidad de Reynols). Este modelo predice el comportamiento ideal en régimen hidrodinámico. Para aproximarnos al régimen elastohidrodinámico no es posible considerar a los cuerpos en contacto como sólidos rígidos que mantienen su geometría inalterada, y por tanto se introducen en este modelo las leyes que consideran la deformación elástica de los materiales. Por último es necesario tener en cuenta que sólo cuando el fluido lubricante está sometido a bajas velocidades de deformación y las condiciones de carga no son elevadas, es posible considerar su comportamiento ideal newtoniano, según el cual la tensión tangencial que ofrece es proporcional al gradiente de velocidad al que se encuentra sometido. Para el ajuste del modelo y adecuada predicción de la película lubricante es necesario introducir modelos de comportamiento del lubricante más complejos que tienen en cuenta las propiedades viscoelásticas de este, tales como Newton/Barus, Tensión Cortante Límite y Carreau. Para ello se han tomado medidas reológicas de los fluidos a distintas presiones y temperaturas. Se ha demostrado que los modelos isotermos no predicen adecuadamente el coeficiente de fricción en condiciones de funcionamiento con deslizamientos elevados, debido al calentamiento del aceite por compresión y cizalla. Es estos casos es necesario emplear un modelo termoelastohidrodinámico.
Resumo:
Desde hace mucho tiempo, el hombre se ha preocupado por los fenómenos que rigen el movimiento humano. Así Aristóteles (384-322 a. J.C.) poseía conocimientos notables sobre el centro de gravedad, las leyes del movimiento y de las palancas, siendo el primero en describir el complejo proceso de la marcha. A este sabio le siguieron muchos otros: Arquímedes (287-212 a. J.C.)- Ga leno (131-201 a.J.C.) Leonardo Da Vinci (1452-1519), que describió la mecánica del cuerpo en posición erecta, en la marcha y en el salto. Galileo Galilei (1564-1643) proporcionó empuje al estudio de los fenómenos mecánicos en términos matemáticos, creando las bases para la biomecánica. Alfonso Borelli (1608-1679), considerado por algunos autores como el padre de la moderna biomecánica. Aseguraba que los músculos funcionan de acuerdo con principios matemáticos. Nicolas Andry (1658-1742), creador de la ciencia ortopédica. Isaac Newton, que estableció las bases de la dinámica moderna con la enunciación de sus leyes mecánicas todavía hoy vigentes. E.J. Marey (1830-1904), afirmaba que el movimiento es la más importante de las funciones humanas, y describió métodos fotográficos para la investigación biológica. c.w. Braune (1831-1892), y Otto Fischer (1861-1917), describieron un método experimental para determinar el centro de gravedad. Harold Edgerton, inventor del estroboscopio electrónico de aplicación en el análisis fotográfico del movimiento. Gideon Ariel, una de las máximas autoridades en la biomecánica del deporte actual. ••••••• oooOooo ••••••• En lo que respecta al ámbito deportivo, en los últimos años estamos asistiendo a una gran mejora del rendimiento. Esto es debido en gran parte a un mayor apoyo científico en el proceso de entrenamiento, tanto en lo que se refiere a los métodos para desarrollar la condición física, como en lo concerniente a la perfección de la técnica deportiva, es decir, el aprovechamiento más eficaz de las leyes mecánicas que intervienen en el movimiento deportivo. Según P. Rasch y R. Burke, la biomecánica se ocupa de la investigación del movimiento humano por medio de los conceptos de la física clásica y las disciplinas afines en el arte práctico de la ingeniería. Junto con la anatomía, biofísica, bioquímica, fisiología, psicología y cibernética, y estrechamente relacionada con ellas, la biomecánica, conforma las bases de la metodología deportiva. (Hochmuth) Entre los objetivos específicos de la biomecánica está la investigación dirigida a encontrar una técnica deportiva más eficaz. Actualmente, el perfeccionamiento de la técnica se realiza cada vez más apoyándose en los trabajos de análisis biomecánico. Efectivamente, esto tiene su razón de ser, pues hay detalles en el curso del ~~ movimiento que escapan a la simple observación visual por parte del entrenador. Entre dos lanzamientos de distinta longitud, en muchas ocasiones no se pueden percibir ninguna o como mucho sólo pequeñas diferencias. De ahí la necesidad de las investigaciones basadas en el análisis biomecánico, de cuyos resultados obtendrá el entrenador la información que precisa para realizar las modificaciones oportunas en cuanto a la técnica deportiva empleada por su atleta se refiere. Para el análisis biomecánico se considera el cuerpo humano como un conjunto de segmentos que forman un sistema de eslabones sometido a las leyes físicas. Estos segmentos son: la cabeza, el tronco, los brazos, los antebrazos, las manos, los muslos, las piernas y los pies. A través de estos segmentos y articulaciones se transmiten las aceleraciones y desaceleraciones para alcanzar la velocidad deseada en las porciones terminales y en el sistema propioceptivo que tiene su centro en el cerebro. De todo esto podemos deducir la práctica imposibilidad de descubrir un error en el curso del movimiento por la sola observación visual del entrenador por experto que este sea (Zanon). El aspecto biológico de la biomecánica no se conoce tanto como el aspecto mecánico, ya que este campo es mucho más complejo y se necesitan aparatos de medición muy precisos. Entre los objetivos que me he planteado al efectuar este trabajo están los siguientes: - Análisis biomecánico de uno de los mejores lanzadores de martillo de España. - Qué problemas surgen en el análisis biomecánico tridimensional. Cómo llevar a cabo este tipo de investigación con un material elemental, ya que no disponemos de otro. Ofrecer al técnico deportivo los procedimientos matemáticos del cálculo necesarios. En definitiva ofrecer una pequeña ayuda al entrenador, en su búsqueda de soluciones para el perfeccionamiento de la técnica deportiva.
Resumo:
El trabajo aborda el desarrollo de un procedimiento para la evaluación de la eficiencia energética en infraestructuras lineales desde el punto de vista constructivo. El procedimiento permite calcular, tanto globalmente como de forma independizada, el balance energético de las diferentes fases del ciclo de vida de la infraestructura: construcción, operación y desmantelamiento o deconstrucción.
Resumo:
El comercio marítimo actual requiere buques de un tamaño cada vez mayor. Para dar servicio a estos buques los puertos tienen que ofrecer grandes calados y las obras de abrigo están cimentadas cada vez a mayor profundidad, particularmente en el caso de España que es un país con escasos puertos naturales y poca plataforma continental y la mayoría de sus puertos son exteriores. La construcción de obras de abrigo en calados tan grandes (hasta 50 metros de profundidad) resulta sumamente costosa, y dado que a esas profundidades generalmente el oleaje no rompe, la tipología más habitual es la de diques verticales, reflejantes puros, tanto por ahorro de costes como por impacto ambiental. Al ir a mayores calados las olas a las que se enfrentan los diques son cada vez mayores, y esto acusa el desconocimiento exacto de los fenómenos que hidrodinámicos que tienen lugar, y por tanto las deficiencias de los métodos de dimensionamiento de diques verticales empleados. La incertidumbre en la definición de los fenómenos involucrados lleva a la mayoración indiscriminada de las acciones y al sobredimensionamiento de los diques, con el consiguiente sobrecoste, y a otra conclusión más grave: el desconocimiento de los factores de seguridad reales. Esto obliga a continuar profundizando en los fundamentos de los fenómenos observados. La presente tesis se basa en el análisis de datos recogidos por la instrumentación del dique de Botafoc (Ibiza) desde el año 2003. Esta instrumentación es de las que ha ofrecido mediciones de temporales de forma más consistente en todo el mundo. El análisis de los datos conduce a una serie de resultados muy reveladores y novedosos en cuanto a la forma de las distribuciones de los empujes, la influencia del periodo del oleaje sobre las mismas, y la importancia de los flujos inducidos por el oleaje a través de las banquetas de cimentación. Todas las conclusiones alcanzadas están sólidamente justificadas desde el punto de vista teórico. También se ponen de manifiesto otros fenómenos interesantes que no eran objeto de la presente investigación como la importancia del retranqueo del espaldón. El alcance inicial de la tesis pretendía dar explicación a la influencia del periodo del oleaje sobre las distribuciones de presiones, sin embargo la gran cantidad de descubrimientos realizados llevan a pensar en la posibilidad de desarrollar una nueva metodología de cálculo de esfuerzos hidrodinámicos en diques verticales. Esta nueva metodología está en desarrollo por el autor de la presente tesis y será presentada en futuros trabajos. Además del importante avance conceptual del estado de la técnica que supone, otro producto de la investigación ha sido el desarrollo de dos patentes de invención y una tercera aún en desarrollo. Maritime trade nowadays requires ships of increasing size, and ports must go to deeper draughts to shelter those ships. In high depths vertical breakwaters are the most economical alternative; however there are many questions about reflection of waves not yet clarified. This uncertainties drive to oversize breakwaters and the corresponding rise in costs. Moreover the main issue is that safety margins are not known. This thesis is based on the analysis of data collected by instrumentation of the Botafoc breakwater (Ibiza) since 2003, having recorded a wide range of data. The data analysis leads to very interesting discovers such as the shape of the distribution of the pressures, the influence of wave period, and the importance of the wave induced flows through foundation. All conclusions reached are solidly justified from the theoretical point of view. Other interesting phenomena that were not the subject of this research have been revealed such as the importance of crown wall position. The initial scope of the thesis aimed to give explanation to the influence of the wave period on distributions of pressure; however the interesting discoveries made suggest developing a new methodology for calculating hydrodynamic efforts vertical breakwaters. This new methodology is currently under development by the author of this thesis and will be presented in future works. Besides the important conceptual advance the state of the art involved, another product of the research has been the development of two patents.
Resumo:
La presencia de un monolito en la coronación de un dique rompeolas tiene como principales ventajas la reducción del volumen de elementos necesarios en el manto y la mejora de la operatividad de los muelles que abriga, lo que supone un importante ahorro de coste tanto de ejecución como de explotación y mantenimiento. Por ello, la utilización del espaldón en los diques rompeolas se encuentra generalizada desde hace décadas en numerosos puertos de todo el mundo. Para el diseño de este elemento se han ido desarrollando diversas metodologías, siendo la primera de ellas (Iribarren y Nogales) propuesta en la década de los cincuenta, y la última (Berenguer y Baonza) en el año 2006. Estos procedimientos se basan en series de ensayos en modelo físico y tienen como filosofía la determinación de las cargas que genera el oleaje al impactar contra el paramento vertical para poder dimensionar un monolito estable frente a tales acciones. Sin embargo, las averías que se han producido en este elemento particular, incluso en la pasada década, ponen de relieve la gran sensibilidad de este elemento frente a estas y otras acciones de diseño. El objetivo de la presente Tesis Doctoral es el desarrollo de un método de diseño alternativo a los existentes, basado en la observación de diques reales que se encuentran en funcionamiento en la actualidad y mediante el cual se obtenga directamente como resultado las dimensiones principales del monolito en lugar de las cargas debidas al impacto de la ola incidente. Para ello, se ha realizado el análisis comparativo de los métodos de diseño de espaldones disponibles hasta la fecha. Antes de establecer una nueva metodología primeramente se ha estudiado el Estado del Arte, del cual se ha realizado un análisis crítico, donde se indican las posibles incertidumbres y limitaciones que presenta cada metodología. Para lograr el objetivo de la presente Tesis Doctoral se desarrolla una investigación basada en los datos de veintitrés diques ubicados en la fachada mediterránea española, considerando variables tanto climáticas como geométricas del propio dique. Se ha seguido el principio del Teorema Π para formar monomios adimensionales y, a través de combinaciones entre ellos, establecer relaciones de dependencia. Con los resultados obtenidos se ha elaborado una metodología de diseño que se propone como respuesta al objetivo planteado. Wall erected on top of a breakwater has two main advantages: lower amount of armour elements and better operating capacity of the inner harbor, which means an appreciable construction, operating and maintenance saving. Therefore, many breakwaters have been designed with crown wall all over the world. Different design methods have been developed through the years. The first one (Iribarren & Nogales) was set in the fifties, and the latest (Berenguer & Baonza) was developed in 2006. All of them are based on laboratory tests series and their common philosophy is to calculate the wave forces on the wall in order to design an element stable against these forces. However, crown wall failures have occured even in last decade, which point the high sensitivity of this element. The objective of this Thesis is to develop an alternative design procedure based on real breakwaters data, which gave as a direct result the most important measures of the crown wall instead of wave loads. In order to achieve the objective, firstly a critical analysis of the State of the Art has been carried out, determining ranges of application and detecting uncertainties. A research on twenty-three breakwaters of the Mediterranean Spanish coast has been carried out to fulfill the objective of this Thesis, taking into account both climatic and geometric parameters. It has been followed Theorem Π to make non-dimensional monomials and, through combinations among them, identify dependency rates. Obtained results lead to a design method.
Resumo:
Se presenta el algoritmo implementado para probar la estabilidad de pilas de puente de forma global, es decir, integradas en la estructura más general del puente. El método planteado constituye una alternativa más general al método habitual de leyes momento-curvatura. Se describe su aplicación al puente atirantado de Bucaramanga de 292 m de luz y pilas de 50 y 70 m de altura (altura total de la torre mayor de 133 m). Su aplicación, considerando confinamiento en determinadas secciones de pilas permite tener en cuenta la generación de rótulas plásticas y demostrar el grado de ductilidad alcanzado en la estructura, constituyendo una aplicación practica del método de calculo sísmico por capacidad o push-over a pilas de puente.The relevance of this article is threefold: 1st It presents in detail the algorithm used to test the stability of bridge piers in a global model, i.e., integrated in the most general structure of the bridge. 2nd The method put forward represents a more general alternative to the commonly used moment-curvature method of sectional analysis for biaxial bending under constant axial force. 3rd It describes the algorithm’s application to a 292 m span cable-stayed bridge with piers of 50 and 70 m in height (total height of the biggest tower 133 m). Its application, considering confinement in some particular cross-sections of piers permits the taking into account of “plastic hinges” phenomena due to earthquakes and demonstrates the degree of ductility achieved in the structure. This constitutes a practical application of the push-over method to bridge piers.
Resumo:
El modelo económico imperante en nuestro mundo a lo largo del siglo XX ha conducido a un alto desequilibrio social y económico. Las consecuencias medioambientales de estos desequilibrios comienzan a aflorar, teniendo como principales protagonistas la crisis de recursos naturales básicos que experimentan muchos países, especialmente los que presentan menor grado de desarrollo, así como el conocido fenómeno del cambio climático. Con este telón de fondo, aparecen dos indicadores de sostenibilidad denominados “Huella Ecológica” y “Huella de Carbono” capaces, en el caso de la Huella Ecológica de cuantificar la demanda de recursos naturales de cualquier objeto en estudio en comparación con el potencial productivo del planeta, y en el caso de la Huella de Carbono de cuantificar las emisiones de gases de efecto invernadero asociadas al patrón de consumo establecido por dicho objeto en estudio. Sin embargo, la proliferación actual de metodologías y criterios para la estimación de estos indicadores pone de manifiesto la necesidad de establecer criterios únicos y convergentes en la aplicación práctica de los cálculos de Huella Ecológica y Huella de Carbono que permitan desarrollar todo el potencial de ambos indicadores. En este Proyecto Fin de Carrera se ha aplicado un método para el cálculo de la Huella Ecológica y la Huella de Carbono aplicable en centros universitarios, que a través de un análisis de su actividad económica y de la elaboración de un inventario de uso de suelo y de generación de residuos, permite evaluar la posición medioambiental de dicho centro respecto a su nivel de consumo de recursos y generación de emisiones. La aplicación de este modelo a la Escuela Técnica Superior de Ingenieros de Montes de Madrid ha arrojado interesantes resultados, que cifran en 2.724 toneladas de CO2 su Huella de Carbono y en 948 hectáreas globales su Huella Ecológica, referidas ambas al año 2010. Estas cifras revelan que la posición medioambiental de la Escuela de Ingenieros de Montes de Madrid está en línea con la de otros centros universitarios españoles a la vez que sirven para poner a la citada Escuela en la órbita de otros centros nacionales e internacionales que ya han calculado sus respectivas huellas en un ejercicio de búsqueda de sostenibilidad en el entorno universitario.