544 resultados para Máximas
Resumo:
La aparición de errores o pequeñas diferencias entre la situación ideal prevista y la real durante la ejecución o proyecto de una obra constituye un fenómeno inherente a la limitación humana. Las Normas Oficiales suelen recoger en su articulado tolerancias máximas admisibles para estos errores deducidos, muchas veces, mediante criterios empíricos. Un planteamiento acaso más racional será indicar los valores límites de las imperfecciones de la obra en función del nivel de seguridad adoptado. En este artículo, se estudia desde este punto de vista, la influencia de los errores de ejecución en el valor de la carga crítica de la estructura. Evidentemente, las imperfecciones no deben ser limitadas únicamente por criterios de estabilidad global de la estructura, puesto que existen otras causas de colapso de la misma, que pueden verse afectados más seriamente por las imperfecciones y por consiguiente ser más exigentes en los niveles de las tolerancias máximas. Las imperfecciones que se consideran aquí, corresponden a valores relativamente pequeños producidos por un conjunto de causas simultáneas y por lo tanto son susceptibles de un tratamiento estadístico. Se excluyen de este estudio las equivocaciones o errores groseros cuya descripción matemática mediante métodos probabilistas no es adecuada. Se utilizarán aquí la conjunción de dos técnicas de cálculo -un modelo estructural basado en la teoría de la inestabilidad elástica lineal y un modelo probabilista con distribución gaussiana o uniforme- que se desarrollan de un modo numérico mediante el procedimiento de simulación de Monte-Carlo. Se comprende que la extensión del procedimiento de Monte-Carlo al análisis de otros tipos de modelos estructurales más refinados o bien que consideren otros mecanismos de colapso, así como distintas imperfecciones, es directo a causa del carácter eminentemente numérico del método
Resumo:
En este trabajo se realiza un estudio experimental del comportamiento de veinte vigas de madera aserrada de pino silvestre para uso estructural, de dimensiones 155x75x1090mm y reforzadas con materiales compuestos de fibra de carbono. La procedencia de la madera es el aserradero de Valsaín. Los ensayos se han realizado en el Laboratorio de Materiales de Construcción de la Escuela Universitaria de Arquitectura Técnica de Madrid con una máquina de ensayos Universal. El objetivo del trabajo es el análisis del comportamiento a flexión de las piezas ensayadas reforzadas con materiales compuestos de fibra de carbono realizados con tejidos unidireccionales y bidireccionales. De las veinte vigas ensayadas nueve fueron sin reforzar y el resto se reforzaron con el refuerzo en forma de ?U?, adhiriendo el material compuesto a la cara inferior y los laterales de las vigas, hasta una altura de la mitad del canto. Para la realización de los FRP se han empleado tejidos de fibra de carbono unidireccionales y bidireccionales. El gramaje de los tejidos unidireccionales es de 300gr/m2 y se ha aplicado en una capa. Los tejidos bidireccionales utilizados tienen dos gramajes distintos, 160gr/m2 y 210gr/m2. Éstos últimos se han aplicado en una y en dos capas. Las nueve vigas ensayadas sin reforzar han servido como testigo para analizar el aumento de la capacidad de carga de las vigas reforzadas. A partir de los datos facilitados por el software se asociado a la máquina de ensayos se trazaron los gráficos carga-desplazamiento, con el fin de analizar las cargas máximas de rotura alcanzadas, desplazamientos y rigidez de las piezas. Posteriormente se realiza un análisis analítico hallando los valores medio de las cargas de rotura y los desplazamientos, realizando una comparación entre los datos obtenidos para las vigas sin reforzar y las reforzadas con los distintos sistemas. En las conclusiones se presentan los resultados del análisis realizado, estudiando el incremento de la capacidad de carga de las vigas reforzadas con respecto a las no reforzadas, y comparando entre sí el funcionamiento de los refuerzos aplicados.
Resumo:
En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.
Resumo:
En este trabajo se realiza un estudio experimental del comportamiento de veinte vigas de madera aserrada de pino silvestre para uso estructural, de dimensiones 155x75x1090mm y reforzadas con materiales compuestos de fibra de carbono. La procedencia de la madera es el aserradero de Valsaín. Los ensayos se han realizado en el Laboratorio de Materiales de Construcción de la Escuela Universitaria de Arquitectura Técnica de Madrid con una máquina de ensayos Universal. El objetivo del trabajo es el análisis del comportamiento a flexión de las piezas ensayadas reforzadas con materiales compuestos de fibra de carbono realizados con tejidos unidireccionales y bidireccionales. De las veinte vigas ensayadas nueve fueron sin reforzar y el resto se reforzaron con el refuerzo en forma de ?U?, adhiriendo el material compuesto a la cara inferior y los laterales de las vigas, hasta una altura de la mitad del canto. Para la realización de los FRP se han empleado tejidos de fibra de carbono unidireccionales y bidireccionales. El gramaje de los tejidos unidireccionales es de 300gr/m2 y se ha aplicado en una capa. Los tejidos bidireccionales utilizados tienen dos gramajes distintos, 160gr/m2 y 210gr/m2. Éstos últimos se han aplicado en una y en dos capas. Las nueve vigas ensayadas sin reforzar han servido como testigo para analizar el aumento de la capacidad de carga de las vigas reforzadas. A partir de los datos facilitados por el software se asociado a la máquina de ensayos se trazaron los gráficos carga-desplazamiento, con el fin de analizar las cargas máximas de rotura alcanzadas, desplazamientos y rigidez de las piezas. Posteriormente se realiza un análisis analítico hallando los valores medio de las cargas de rotura y los desplazamientos, realizando una comparación entre los datos obtenidos para las vigas sin reforzar y las reforzadas con los distintos sistemas. En las conclusiones se presentan los resultados del análisis realizado, estudiando el incremento de la capacidad de carga de las vigas reforzadas con respecto a las no reforzadas, y comparando entre sí el funcionamiento de los refuerzos aplicados.
Resumo:
El sector del vino se enfrenta a nuevas oportunidades de mercado, debido a la creciente liberalización y globalización del comercio, a las que hay que unir mayores retos, como la competencia en aumento de nuevos actores y el descenso del consumo en los países productores tradicionales. Para hacer frente a esta competencia en mercados emergentes, así como a la saturación de los tradicionales, las estrategias de diferenciación se hacen cada vez más necesarias. La industria vitivinícola española, incluida en un modelo tradicional de producción, también ha sufrido con la aparición en el mercado internacional de nuevos países productores y requiere de procesos de reestructuración de la producción y estrategias innovadoras en el comercio. En España existe un claro desajuste entre oferta y demanda, con descensos en el consumo interno, que apenas cubre la sexta parte de la producción, con la eliminación de los apoyos públicos de regulación y con aumentos continuados de las cosechas. Por ello, la vía más relevante para mantener la rentabilidad del sector es la exportación, aumentando considerablemente el volumen exportado, pero también mejorando el valor de los envíos. Esta situación, sin duda, exige adaptar la oferta española a la demanda global y requiere del conocimiento de los mercados de destino y del diseño de estrategias adecuadas para alcanzar el objetivo marcado. Estados Unidos es un importador neto de vino, debido al incremento de la demanda, que desde 2013 le hizo convertirse en el mayor consumidor mundial en volumen. Este consumo en expansión no es cubierto por la producción interna, y los vinos importados adquieren un creciente interés para el consumidor estadounidense. España tiene tasas de incremento significativas en este destino, pero sus cuotas de mercado aún se sitúan en niveles inferiores a las de muchos países competidores y el consumidor medio estadounidense no tiene un elevado conocimiento del vino español, por lo que existe una gran capacidad de crecimiento. En este contexto, se plantea la necesidad de examinar el comportamiento de la demanda de EE.UU. frente a los atributos del vino español. Identificar y analizar las características que la demanda estadounidense, como mercado de exportación, considera relevantes en el vino español de calidad diferenciada, procedente de distintas regiones productoras, y posteriormente determinar su grado de importancia, de manera que se puedan plantear herramientas para la toma de decisiones empresariales y para la definición de estrategias comerciales, por parte de productores, exportadores y distribuidores vitivinícolas. El análisis de precios hedónicos, metodología ampliamente utilizada en el sector, trata de explicar la decisión de compra de determinado producto en base a una combinación de sus atributos, además de estimar el precio implícito de cada uno de ellos. Por tanto, este enfoque resulta indicado y ha sido el empleado para proporcionar a los operadores del lado de la oferta la posibilidad de comprobar los beneficios previstos de sus inversiones, comparándolos con los costes asociados a dicho esfuerzo inversor. La estimación hedónica se realiza sobre una muestra representativa de exportaciones de bodegas españolas, obtenida de una guía especializada de EE.UU. de amplia difusión en dicho mercado. Se realizan análisis tanto para el conjunto de la muestra, como para los distintos segmentos de precio (super premium, popular premium y ultra premium), y de ellos se deriva que seis grupos de variables presentan influencia sobre la apreciación del consumidor: añada, categoría comercial (grado de envejecimiento y vinos boutique), nota de calidad, origen, tipo de vino (según su color) y tamaño de la bodega. Cualquier decisión empresarial adoptada respecto a alguno de estos atributos es relevante respecto al posicionamiento del vino en el mercado estadounidense. Al margen de determinadas particularidades y del origen del vino, que presenta conductas diferentes según el segmento de precios, se observa un comportamiento similar de la demanda respecto a cada grupo de variables en los distintos tramos del mercado. Por otro lado, es necesario señalar que el rango super premium es el de mayor complejidad a la hora de tomar decisiones y en el que se dan un mayor número de posibilidades de actuación a la hora de posicionar el producto, ya que es en el que un mayor número de parámetros resulta de interés para el consumidor. El comprador estadounidense presta gran atención a la categoría del vino, siendo el factor más influyente sobre el precio de manera general. La demanda estadounidense valora de un modo importante el grado de envejecimiento de los vinos, así como su posicionamiento en precios altos que reflejen características específicas, como ocurre en los vinos boutique, especialmente apreciados en el segmento ultra premium. En este sentido, sería pertinente analizar los costes asociados a procurar a los vinos, en el caso de ser aptos para ello, un mayor envejecimiento o para elaborar un vino boutique dirigido a este mercado, o bien centrar las exportaciones en este tipo de vinos, para comprobar si se obtienen mayores beneficios con estas operaciones. Se presentan como excepción los vinos calificados como crianza que se equiparan a los vinos jóvenes o presentan peor apreciación, por lo que puede no resultar rentable un envejecimiento del vino hasta esa categoría. Por otro lado, se observa en los dos tramos inferiores de precio, que el consumidor estadounidense sabe apreciar las oportunidades de encontrar un vino de calidad en un precio inferior al esperado, por lo que aparecen oportunidades para establecer estrategias de comercialización, vía ofertas o promociones, para penetrar en el mercado. El factor exclusividad, medido a través del tamaño de la bodega, puede servir como instrumento de diferenciación comercial en EE.UU. al presentar valor añadido para la demanda, que aprecia en mayor medida los vinos elaborados por microempresas, frente a los de grandes empresas, que obtienen los peores resultados. En los vinos super premium crece la importancia de este factor, frente al tramo inferior donde el peso de las decisiones recae en otros parámetros. En ultra premium, la demanda relaciona más el factor exclusividad con la categoría boutique y no tanto con el menor tamaño de la empresa. En cuanto al tipo de vino, resulta el atributo menos relevante para el consumidor a la hora de tomar una decisión de compra, e incluso no es significativo en el segmento inferior de precios. Por tanto, las bodegas podrían tratar de introducirse en el mercado popular premium sin atender al color del vino como aspecto clave. De manera general, los vinos tintos presentan una mayor valoración frente a los blancos y rosados, teniendo estos últimos consideración negativa para el cliente. El origen del vino es relevante en las elecciones del consumidor y tiene utilidad como elemento diferenciador. Por tanto, la localización de una bodega puede favorecer o perjudicar su penetración en EE.UU. Resulta interesante que, en el tramo superior de precios, gran parte de las apreciaciones sobre los distintos orígenes son positivas, lo que va en favor de la asociación de los vinos españoles a un cierto factor prestigio y con la generación de una buena imagen general. Sin embargo, no hay muchas procedencias significativas en este estrato, por lo que son necesarios mayores esfuerzos promocionales y de posicionamiento, para ampliar el conocimiento y aceptación por el mercado de EE.UU. y mejorar así el citado factor prestigio. De manera global, la mejor valoración por la demanda se produce en los orígenes del norte de la península, mientras que la submeseta sur, zonas colindantes y Aragón tienen apreciaciones negativas. En este sentido, hay determinados orígenes, como Yecla, Utiel-Requena, Cariñena, Vinos de la Tierra de Castilla o, especialmente, Valdepeñas, que han de modificar sus estrategias de promoción, si existieran, o emprender trabajos intensos en esta línea. Por otro lado, se muestra que la mayor penetración de mercado ayuda a un mayor conocimiento y a una mejor valoración por parte del cliente. Las denominaciones de origen Rioja, Ribera de Duero, Priorat, Penedès, Rueda y Toro, orígenes con elevada presencia en la muestra, son reconocidas positivamente. Excepciones a esta afirmación, DO Navarra y Rías Baixas, deben aumentar la promoción y replantear las estrategias de posicionamiento, ya que el consumidor no parece predispuesto a comprar un vino de estas procedencias por encima de determinado nivel de precio. Finalmente, se destaca que hay orígenes, como DO Campo de Borja o IGP Vino de la Tierra de Castilla y León, con mayor valoración a mayor precio, por lo que deberían aprovechar esta percepción de buena calidad para penetrar en el mercado, especialmente en los tramos superiores de precio. En general, el consumidor estadounidense considera la añada como un factor de media relevancia en la toma de decisiones, con menos importancia en ultra premium que entre los vinos del segmento inferior y medio. En todos los análisis hay coincidencia en la mejor valoración de las últimas añadas, hecho que puede guardar relación con el aumento de la presencia y del mayor conocimiento de los vinos españoles en EE.UU. En cualquier caso, no resultaría interesante la exportación de vinos de años de cosecha antiguos, especialmente en los tramos más baratos de precios, dado que su valor puede no verse recompensado. Finalmente indicar que el mercado estadounidense tiene gran consideración, y de manera directamente proporcional, por la nota de calidad otorgada por expertos, más notablemente a medida que aumenta el precio, y la obtención de las máximas calificaciones puede suponer una apreciación significativa, mientras que una nota situada en los valores inferiores será considerada negativamente y prácticamente del mismo modo por el consumidor. Por tanto, para el elaborador del vino resultaría muy relevante obtener una de las máximas calificaciones, ya que sólo a partir de los 90 puntos se consigue un impacto positivo considerable, que permita rentabilizar los esfuerzos inversores realizados a tal fin.
Resumo:
"La propuesta se basa en el la creación de un anillo productivo alrededor de Makeni de tal forma que las pequeñas ""aldeas satélites"" estén conectadas entre si, facilitando el desarrollo productivo de las mismas. Esto se materializa en la creación de una carretera que integre a las aldeas, planificando los nuevos crecimientos que surjan. Los territorios más accesibles son los que más desarrollo van a tener, de ahí nuestro interés por controlar este tipo de crecimiento. El proyecto se concibe por fases y utilizando las máximas vías de comunicación existentes, queriendo que se acerque lo máximo posible a la realidad. Primero serán caminos de tierra que poco a poco se irán convirtiendo en carreteras asfaltadas según el desarrollo que las poblaciones. Tanto este desarrollo como el de los nuevos crecimientos serán objeto de proyecto. Este anillo productivo, además de integrar los nuevos crecimientos, incorpora una serie de equipamientos dotaciones de almacenaje y venta, educación, sanitario, ligados a las poblaciones según se vayan desarrollando. De forma que se cree una RED DE DESARROLLO.
Resumo:
El antifunicular de cargas viene siendo empleado en la búsqueda de la mejor directriz para el diseño de arcos. Sin embargo, en muchas ocasiones, su forma acaba impuesta por condicionantes no meramente estructurales y su comportamiento dista de ser el óptimo. En este trabajo se propone un nuevo enfoque en el que son las cargas las que se adaptan a la geometría. Mediante la aplicación de una serie de cargas puntuales adicionales es posible obtener un comportamiento muy próximo a la compresión simple. Lo que se traduce en un importante descenso en las tensiones máximas que implica enormes ventajas. Las cargas se materializan mediante un cable de pretensado y se transmiten al arco por medio de barras, que pueden trabajar tanto a tracción como a compresión, dependiendo de la posición del cable con respecto a la estructura. Para sacar provecho a esta metodología, se ha realizado un programa que obtiene las diferentes configuraciones de este sistema para cualquier geometría introducida. Esta metodología permite diseñar estructuras de formas muy dispares dando solución a las demandas externas de una manera eficiente, elegante e innovadora. The antifunicular geometry has been employed as the optimal shape of a curved structure because it exhibits no bending under design loading. However, this shape is often defined by non-structural issues. Inevitably its behaviour is far from the ideal. The new approach, proposed in this study, consists in adding external loads to the main geometry in order to convert it into an antifunicular one. Adding point loads is possible to transform any geometry into a compression-only structure. This provides an important descent in terms of maximum stresses with great advantages for designing material-efficient structures. In the proposed system the loads are transmitted from a prestressed cable to the arch through struts, which can work in compression or in tension. It is possible to obtain different layouts of the cable for each starting shape. A computer programme has been implemented to solve it easily. This methodology allows to design structures of very different shapes, providing a solution to external demands in an efficient, innovative and elegant way.
Resumo:
El 12 de agosto de 2014, se registró un sismo de magnitud 5.1, a una profundidad focal de 4 km., en el segmento de falla Bellavista Catequilla, el mismo que fue registrado en 8 estaciones localizadas en la ciudad de Quito. Estas se encuentran ubicadas a distancias epicentrales entre 12 y 19 km. En este artículo se comparan las aceleraciones máximas obtenidas en campo libre, con las que se obtienen al emplear las ecuaciones de movimientos fuertes de Campbell y Borzognia (2013) y el de Zhao et al. (2006). Para ello previamente se determina un plano de ruptura del sismo, utilizando las ecuaciones propuestas por Leonard (2010) y la geometría de las fallas ciegas propuestas por Alvarado (2014). ABSTRACT: On August 12 th 2014, a magnitude 5.1 earthquake occurred at a depth of 4 km, in the Bellavista Catequilla fault segment. This event was recorded by 8 strong-motion stations located between 12 and 19 km from the epicenter, in the city of Quito. In this article, the maximum ground accelerations recorded in free field are compared with the accelerations estimated using the models by Campbell y Borzognia (2013) and Zh ao et al. (2006). To this end, the earthquake rupture plane is determined using the equations proposed by Leonard (2010) and the geometry of the blind fault system of Quito proposed by Alvarado (2014).
Resumo:
La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.
Resumo:
El comportamiento dinámico de los puentes de ferrocarril, tanto convencional como de alta velocidad, constituye uno de los criterios de diseño más relevantes en la actualidad, puesto que bajo situaciones resonantes la amplificación dinámica que se produce puede llegar a ser muy elevada, no resultando válidas las metodologías utilizadas tradicionalmente. De igual forma, la amplificación dinámica suele llevar asociada la aparición de inestabilidades de la vía relacionadas con vibraciones excesivas de la capa de balasto, las cuales comprometen los estados límite de servicio de la estructura y por lo tanto no permiten garantizar el confort de los pasajeros. Para analizar el comportamiento dinámico de estructuras semi-enterradas en líneas de alta velocidad se decide llevar a cabo el presente Trabajo Fin de Máster en colaboración con la Subdirección de Ingeniería e Innovación de Adif. En este contexto, los objetivos principales de esta investigación comprenden la revisión del estado actual de conocimiento relativo a cálculo y evaluación dinámica, el análisis de tipologías de estructuras semi-enterradas de alguna de las líneas de alta velocidad gestionadas por Adif, así como la elaboración de distintos modelos numéricos de Elementos Finitos que permitan contrastar las medidas experimentales obtenidas en la campaña de instrumentación realizada. Por tanto, se realiza un estudio detallado del paso inferior seleccionado como representativo de la LAV Madrid - Barcelona - Frontera Francesa por medio de modelos numéricos en 2 y 3 dimensiones, desarrollados en FEAP v8.1 (2007). Estos modelos son calibrados en base a las aceleraciones máximas registradas en la campaña instrumental, así como al estudio del contenido frecuencial de cada uno de los sensores dispuestos. La resolución de los modelos se lleva a cabo por medio de una descomposición modal. Por último, en lo que se refiere a resultados obtenidos, destacar que los modelos desarrollados tras la calibración reproducen de forma fiel el comportamiento dinámico del paso inferior seleccionado bajo el eje activo de circulación. Así, se puede concluir que este tipo de estructuras semi-enterradas no se ven comprometidas ante la acción dinámica de las composiciones ferroviarias consideradas, tanto para las velocidades actuales de circulación como para previsibles incrementos de estas.
Resumo:
Esta tesis doctoral presenta el desarrollo, verificación y aplicación de un método original de regionalización estadística para generar escenarios locales de clima futuro de temperatura y precipitación diarias, que combina dos pasos. El primer paso es un método de análogos: los "n" días cuya configuración atmosférica de baja resolución es más parecida a la del día problema, se seleccionan de un banco de datos de referencia del pasado. En el segundo paso, se realiza un análisis de regresión múltiple sobre los "n" días más análogos para la temperatura, mientras que para la precipitación se utiliza la distribución de probabilidad de esos "n" días análogos para obtener la estima de precipitación. La verificación de este método se ha llevado a cabo para la España peninsular y las Islas Baleares. Los resultados muestran unas buenas prestaciones para temperatura (BIAS cerca de 0.1ºC y media de errores absolutos alrededor de 1.9ºC); y unas prestaciones aceptables para la precipitación (BIAS razonablemente bajo con una media de -18%; error medio absoluto menor que para una simulación de referencia (la persistencia); y una distribución de probabilidad simulada similar a la observada según dos test no-paramétricos de similitud). Para mostrar la aplicabilidad de la metodología desarrollada, se ha aplicado en detalle en un caso de estudio. El método se aplicó a cuatro modelos climáticos bajo diferentes escenarios futuros de emisiones de gases de efecto invernadero, para la región de Aragón, produciendo así proyecciones futuras de precipitación y temperaturas máximas y mínimas diarias. La fiabilidad de la técnica de regionalización fue evaluada de nuevo para el caso de estudio mediante un proceso de verificación. Para determinar la capacidad de los modelos climáticos para simular el clima real, sus simulaciones del pasado (la denominada salida 20C3M) se regionalizaron y luego se compararon con el clima observado (los resultados son bastante robustos para la temperatura y menos concluyentes para la precipitación). Las proyecciones futuras a escala local presentan un aumento significativo durante todo el siglo XXI de las temperaturas máximas y mínimas para todos los futuros escenarios de emisiones considerados. Las simulaciones de precipitación presentan mayores incertidumbres. Además, la aplicabilidad práctica del método se demostró también mediante su utilización para producir escenarios climáticos futuros para otros casos de estudio en los distintos sectores y regiones del mundo. Se ha prestado especial atención a una aplicación en Centroamérica, una región que ya está sufriendo importantes impactos del cambio climático y que tiene un clima muy diferente. ABSTRACT This doctoral thesis presents the development, verification and application of an original downscaling method for daily temperature and precipitation, which combines two statistical approaches. The first step is an analogue approach: the “n” days most similar to the day to be downscaled are selected. In the second step, a multiple regression analysis using the “n” most analogous days is performed for temperature, whereas for precipitation the probability distribution of the “n” analogous days is used to obtain the amount of precipitation. Verification of this method has been carried out for the Spanish Iberian Peninsula and the Balearic Islands. Results show good performance for temperature (BIAS close to 0.1ºC and Mean Absolute Errors around 1.9ºC); and an acceptable skill for precipitation (reasonably low BIAS with a mean of - 18%, Mean Absolute Error lower than for a reference simulation, i.e. persistence, and a well-simulated probability distribution according to two non-parametric tests of similarity). To show the applicability of the method, a study case has been analyzed. The method was applied to four climate models under different future emission scenarios for the region of Aragón, thus producing future projections of daily precipitation and maximum and minimum temperatures. The reliability of the downscaling technique was re-assessed for the study case by a verification process. To determine the ability of the climate models to simulate the real climate, their simulations of the past (the 20C3M output) were downscaled and then compared with the observed climate – the results are quite robust for temperature and less conclusive for the precipitation. The downscaled future projections exhibit a significant increase during the entire 21st century of the maximum and minimum temperatures for all the considered future emission scenarios. Precipitation simulations exhibit greater uncertainties. Furthermore, the practical applicability of the method was demonstrated also by using it to produce future climate scenarios for some other study cases in different sectors and regions of the world. Special attention was paid to an application of the method in Central America, a region that is already suffering from significant climate change impacts and that has a very different climate from others where the method was previously applied.
Resumo:
La aparición y avance de la enfermedad del marchitamiento del pino (Pine Wilt Desease, PWD), causada por Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), el nematodo de la madera del pino (NMP), en el suroeste de Europa, ha puesto de manifiesto la necesidad de estudiar la fenología y la dispersión de su único vector conocido en Europa, Monochamus galloprovincialis (Col., Cerambycidae). El análisis de 12 series de emergencias entre 2010 y 2014, registradas en Palencia, València y Teruel, con material procedente de diversos puntos de la península ibérica, demostró una alta variabilidad en la fenología de M. galloprovincialis y la divergencia térmica respecto de las poblaciones portuguesas. Para éstas, el establecimiento de los umbrales térmicos de desarrollo de las larvas post-dormantes del vector (12,2 y 33,5ºC) permitió la predicción de la emergencia mediana para la fecha en la que se acumulaban de 822 grados-día. Ninguna de las series analizadas en este trabajo necesitó de dichos grados-día estimados para la emergencia mediana. Asimismo, la emergencia se adelantó en las regiones más calurosas, mientras que se retrasó en las zonas más templadas. Más allá de la posible variabilidad entre poblaciones locales peninsulares, se detectaron indicios de que la diferencia en la acumulación de calor durante el otoño puede afectar el grado de maduración de las larvas invernantes, y su posterior patrón temporal de emergencia. Por último, también fueron observados comportamientos de protandria en las emergencias. Respecto a la fenología de su vuelo, entre los años 2010 y 2015, fueron ejecutados un total de 8 experimentos de captura de M. galloprovincialis mediante trampas cebadas con atrayentes en diferentes regiones (Castellón, Teruel, Segovia y Alicante) permitiendo el seguimiento del periodo de vuelo. Su análisis permitió constatar la disminución de las capturas y el acortamiento del periodo de vuelo con la altitud, el inicio del vuelo en el mes de mayo/junio a partir de los 14ºC de temperatura media diaria, la influencia de las altas temperaturas en la disminución de las capturas estivales (potencial causante de perfiles bimodales en las curvas de vuelo en las zonas menos frías), la evolución de la proporción de sexos a lo largo del periodo de vuelo (que muestra una mayor captura de hembras al inicio y de machos al final) y el comportamiento diurno y ligado a las altas temperaturas del vuelo circadiano del insecto. Dos redes de muestreo sistemático de insectos saproxílicos instaladas en la Comunitat Valencia (Red MUFFET, 15 parcelas, año 2013) y en Murcia (Red ESFP, 20 parcelas, años 2008-2010) permitieron el estudio de la comunidad de insectos relacionada con M. galloprovincialis. Cada una de las parcelas contaba con una trampa cebada con atrayentes y una estación meteorológica. El registro de más de 250 especies de coleópteros saproxílicos demostró el potencial que tiene el empleo de redes de trampas vigía para la detección temprana de organismos exóticos, además de permitir la caracterización y evaluación de las comunidades de entomofauna útil, representando una de las mejores herramientas de la gestión integrada de plagas. En este caso, la comunidad de saproxílicos estudiada mostró ser muy homogénea respecto a la variación ambiental de las zonas de muestreo, y que pese a las pequeñas variaciones entre las comunidades de los diferentes ecosistemas, el rol que M. galloprovincialis desempeña en ellas a lo largo de todo el gradiente estudiado es el mismo. Con todo, el análisis mediante redes de interacción mostró su relevancia ecológica al actuar de conector entre los diferentes niveles tróficos. Por último, un total de 12 experimentos de marcaje-liberación-recaptura desarrollados entre 2009 y 2012 en Castellón, Teruel, Valencia y Murcia permitieron evaluar el comportamiento dispersivo de M. galloprovincialis. Las detecciones mediante trampas cebadas de los insectos liberados se dieron por lo menos 8 días después de la emergencia. La abundancia de población pareció relacionada con la continuidad, la naturalización de la masa, y con la afección previa de incendios. La dispersión no estuvo influida por la dirección ni la intensidad de los vientos dominantes. La abundancia de material hospedante (en lo referente a las variables de masa y a los índices de competencia) influyó en la captura del insecto en paisajes fragmentados, aunque la ubicación de las trampas optimizó el número de capturas cuando se ubicaron en el límite de la masa y en zonas visibles. Por último también se constató que M. galloprovincialis posee suficiente capacidad de dispersión como para recorrer hasta 1500 m/día, llegando a alcanzar distancias máximas de 13600m o de 22100 m. ABSTRACT The detection and expansion of the Pine Wilt Desease (PWD), caused by Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), Pine Wood Nematode (PWN), in southwestern Europe since 1999, has triggered off the study of the phenology and the dispersion of its unique vector in the continent, Monochamus galloprovincialis (Coleoptera, Cerambycidae). The analysis of 12 emergence series between 2010 and 2014 registered in Palencia, Teruel and Valencia (Spain), registered from field colonized material collected at several locations of the Iberian Peninsula, showed a high variability in the emergence phenology of M. galloprovincialis. In addition, these patterns showed a very acute thermal divergence regarding a development model fitted earlier in Portugal. Such model forecasted the emergence of 50% of M. galloprovincialis individuals in the Setúbal Peninsula (Portugal) when an average of 822 degree-days (DD) were reached, based on the accumulation of heat from the 1st of March until emergence and lower and upper thresholds of 12.2 ºC and 33,5 °C respectively. In our results, all analyzed series needed less than 822 DD to complete the 50% of the emergence. Also, emergency occurred earlier in the hottest regions, while it was delayed in more temperate areas. Beyond the possible variability between local populations, the difference in the heat accumulation during the fall season may have affected the degree of maturation of overwintering larvae, and subsequently, the temporal pattern of M. galloprovincialis emergences. Therefore these results suggest the need to differentiate local management strategies for the PWN vector, depending on the location, and the climatic variables of each region. Finally, protandrous emergence patterns were observed for M. galloprovincialis in most of the studied data-sets. Regarding the flight phenology of M. galloprovincialis, a total of 8 trapping experiments were carried out in different regions of the Iberian Peninsula (Castellón, Teruel, Segovia and Alicante) between 2010 and 2015. The use of commercial lures and traps allowed monitoring of the flight period of M. galloprovincialis. The analyses of such curves, helped confirming different aspects. First, a decline in the number of catches and a shortening of the flight period was observed as the altitude increased. Flight period was recorded to start in May / June when the daily average temperature went over 14 ° C. A significant influence of high temperatures on the decrease of catches in the summer was found in many occasions, which frequently lead to a bimodal profile of the flight curves in warm areas. The evolution of sex ratio along the flight period shows a greater capture of females at the beginning of the period, and of males at the end. In addition, the circadian response of M. galloprovincialis to lured traps was described for the first time, concluding that the insect is diurnal and that such response is linked to high temperatures. Two networks of systematic sampling of saproxylic insects were installed in the Region of Valencia (Red MUFFET, 15 plots, 2013) and Murcia (Red ICPF, 20 plots, 2008-2010). These networks, intended to serve the double purpose of early-detection and long term monitoring of the saproxylic beetle assemblies, allowed the study of insect communities related to M. galloprovincialis. Each of the plots had a trap baited with attractants and a weather station. The registration of almost 300 species of saproxylic beetles demonstrated the potential use of such trapping networks for the early detection of exotic organisms, while at the same time allows the characterization and evaluation of useful entomological fauna communities, representing one of the best tools for the integrated pest management. In this particular case, the studied community of saproxylic beetles was very homogeneous with respect to environmental variation of the sampling areas, and despite small variations between communities of different ecosystems, the role that M. galloprovincialis apparently plays in them across the studied gradient seems to be the same. However, the analysis through food-webs showed the ecological significance of M. galloprovincialis as a connector between different trophic levels. Finally, 12 mark-release-recapture experiments were carried out between 2009 and 2012 in Castellón, Teruel, Valencia and Murcia (Spain) with the aim to describe the dispersive behavior of M. galloprovincialis as well as the stand and landscape characteristics that could influence its abundance and dispersal. No insects younger than 8 days were caught in lured traps. Population abundance estimates from mark-release-recapture data, seemed related to forest continuity, naturalization, and to prior presence of forest fires. On the other hand, M. galloprovincialis dispersal was not found to be significantly influenced by the direction and intensity of prevailing winds. The abundance of host material, very related to stand characteristics and spacing indexes, influenced the insect abundance in fragmented landscapes. In addition, the location of the traps optimized the number of catches when they were placed in the edge of the forest stands and in visible positions. Finally it was also found that M. galloprovincialis is able to fly up to 1500 m / day, reaching maximum distances of up to 13600 m or 22100 m.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
Las carreras cortas a máxima velocidad son acciones muy frecuentes en el voleibol, estando su importancia relacionada con la necesidad de llegar rápidamente a la posesión de un balón o a un espacio determinado en el campo de juego. El objetivo de este trabajo fue analizar las características del voleibol y reflexionar sobre la velocidad de jugadoras de voleibol utilizando un test de 9m partiendo de parados y un test de 3 metros. Cada deportista realizó tres series con un descanso intermedio de 5 minutos. Los resultados, se proporcionaron en tiempo real, datos de velocidades medias y máximas en tramos de 0-3m, 3-6m y 6-9m en el test de 9 metros, y 0-1.5m, 1.5-3m, 3-1.5m, 1.5-0m en el test de 3 metros. Se analizó, tanto en valores absolutos, las variables: la velocidad (máxima y media). En la primera parte del trabajo explicaremos cual ha sido el motivo de la elección del análisis de test de velocidad como principal objeto de estudio y comentaremos los objetivos tanto principales como específicos. En la segunda parte, definiremos las características del voleibol y los estudios precedentes sobre test de velocidad. A continuación, en la parte de resultados y discusión, mostraremos los datos, las gráficas y comparativas obtenidas del análisis de los dos test de velocidad. Podremos comprobar las diferencias de velocidades máximas en cada tramo, las correlaciones que tienen ambos test y los porcentajes de velocidad máxima en cada tramo. Finalmente, en la parte de conclusiones, en el que se justifica entre otras cosas, que las jugadoras de voleibol estudiadas son capaces de generar velocidades altas no solo en un sprint clásico como el de 9 metros en el que tienen espacio suficiente para acelerar, sino también en un espacio mucho más reducido y seguido de un cambio de sentido, como se produce en el test de 3 metros.
Resumo:
El entrenamiento de alto rendimiento en natación tiene una diversidad de exigencias que hacen que el nadador pueda alcanzar sus objetivos deportivos de máximo nivel gracias a la consecución de una óptima forma física en el día programado para la competición. En este duro camino influyen numerosos factores entre otros, la posibilidad de sufrir una lesión, hecho que es muy común durante la vida deportiva del nadador. La termografía se está abriendo camino en el mundo del deporte como una herramienta adicional a la hora de aportar datos complementarios para la prevención, seguimiento y recuperación de lesiones deportivas. El marco teórico de este trabajo hace referencia a los fundamentos y aplicaciones de la termografía dentro de la natación y hace un repaso sobre algunos aspectos característicos de este deporte. La parte práctica de este trabajo describe el material y método utilizado para el análisis termográfico de 10 nadadores dando como resultado un perfil térmico medio del nadador de tres clubes de natación de élite, que se caracteriza por ser simétrico con temperaturas medias máximas en los trapecios y valores de temperaturas ligeramente asimétricos (diferencia = 0,3ºC) únicamente en la parte anterior del codo del lado derecho. El trabajo puede considerarse un punto de partida para futuros estudios termográficos en el ámbito de la natación.