60 resultados para TESIS EN EDUCACION FISICA

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo propone cómo abordar un problema creciente en las escuelas técnicas como es la masificación de los cursos. Para ello describe una serie de parámetros de influencia representativos y aspectos operativos aplicables a la impartición de prácticas de laboratorio en asignaturas que contienen una base predominantemente tecnológica. Se pretende que los conceptos e ideas aportadas puedan servir como base para la implantación de nuevas prácticas o bien para la adaptación de prácticas ya existentes, intentado, en la medida de lo posible, una formulación conceptual que resulte aplicable a todas aquellas asignaturas o disciplinas en las que la aplicación práctica de los conceptos estudiados suponga una parte esencial de las enseñanzas y que tengan un alto número de alumnos. La utilización de las Tecnologías de la Información y la Comunicación (TIC) debe verse como una importante fuente de recursos de apoyo a la actividad docente de prácticas, ya que favorece el acceso individual de forma simultánea, pero en ningún caso debe suponer la sustitución de la actividad presencial del alumno en laboratorio, que es esencial para la consecución de los objetivos formativos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis estudia el Pabellón de los Países Nórdicos (1958-1962), uno de los ejemplos más significativos de la obra del arquitecto Sverre Fehn (1924-2009). El Pabellón es el resultado de la obtención del primer premio en el concurso de ideas restringido convocado en 1958 por un comité formado por los gobiernos de Suecia, Finlandia y Noruega, cuya finalidad era la creación de un espacio en el recinto de la Bienal de Venecia que albergara las exposiciones bianuales de estos paises. El elemento más característico de esta obra es su cubierta, un tamiz denso de dos capas de vigas de hormigón superpuestas que se interrumpe puntualmente para permitir el paso de los árboles que viven en su interior. Su espesor de dos metros bloquea los rayos de luz directa de forma que se genera un plano de iluminación difusa. Esta configuración de la cubierta resuelve los dos condicionantes principales del proyecto: la creación de un espacio expositivo flexible y la preservación de los árboles de mayor porte. Bajo el plano superior filtrante, se genera un espacio horizontal en continuidad física y sensorial con la arboleda en la que se asienta, caracterizado por la variación lumínica a lo largo del día. Los objetivos de esta tesis son contribuir a un conocimiento amplio y riguroso del Pabellón Nórdico, y explicar el singular espacio que propone. Para lograr estos objetivos, el primer paso ha consistido en la elaboración de las bases del estudio de esta obra, mediante la recopilación y selección de la documentación existente -que en gran parte permanece inédita hasta la fecha- y la aportación de nuevos planos que completen fases no documentadas: el estado construído y el estado actual de la obra. Se parte de la hipótesis de que todas las decisiones de proyecto -el vínculo con el lugar, la incorporación de las preexistencias, la respuesta al programa y la construcción- son consecuencia de la acción de la cubierta y se derivan del hecho de la filtración de la luz. En el Pabellón, la iluminación cenital y espacio horizontal en continuidad con el entorno se aunan de forma insólita. El curso de la investigación está guiado por la búsqueda de las cualidades de un espacio planteado con su límite superior permeable -cubierta filtrante- y por el debilitamiento de algunos de sus límites verticales. La tesis se estructura en tres capítulos principales -crónica, re-construcción y re-lectura-, que abordan la descripción, el análisis y la síntesis del Pabellón de acuerdo con la metodología de la investigación seguida. La crónica se dedica a la descripción exhaustiva de la sede nórdica desde varios puntos de vista. El objetivo de este capítulo es el de ubicar la obra en su contexto y facilitar la comprensión del conjunto de los aspectos y condicionantes que determinaron la formalización del Pabellón. El capítulo comienza con una síntesis de las circunstancias que desencadenaron la convocatoria del concurso. El apartado pormenoriza el programa propuesto por el comité nórdico y las propuestas presentadas por cada uno de los arquitectos invitados a participar en el concurso de cada país promotor: el noruego Sverre Fehn, el sueco Klas Anshelm y el finés Reima Piëtila. A continuación se explica el desarrollo y evolución del proyecto de Fehn y las fases que atraviesa la obra hasta su materialización, así como los cambios y modificaciones más relevantes que el edificio ha experimentado hasta nuestros días. Este apartado finaliza con una descripción de la sede como espacio expositivo desde su inauguración hasta la actualidad y cómo se ha ido adaptando a tal uso. La re-construcción aborda el análisis de la obra a partir de la disección de su identidad en cuatro aspectos elementales: su relación con el lugar y las preexistencias, la respuesta que el proyecto ofrece al programa planteado, las cualidades del espacio que genera la luz filtrada por la cubierta y la construcción desde los puntos de vista del proceso, el sistema y la materialidad. En estas parcelas se pretende identificar los elementos que constituyen la naturaleza, la organización espacial y la formalización del Pabellón y veremos que todos ellos están relacionados con su singular cubierta y con el fenómeno de la filtración de la luz. La re-lectura ofrece una mirada crítica del Pabellón en base a un análisis comparativo de la obra con un panorama de referencias que plantean los mismos temas arquitectónicos. En este capítulo se busca profundizar en los aspectos fundamentales del proyecto que se derivan del estudio realizado previamente, y así obtener una lectura más profunda los conceptos desarrollados por Fehn y su alcance. Uno de los temas de mayor importancia que acomete Fehn en esta obra es la interacción entre arquitectura y árbol. Se revisa la incidencia que tiene sobre el trazado de la planta la ocupación previa de árboles en el solar, así como las diferentes posturas que adopta la arquitectura ante este hecho. Se estudian algunos casos representativos de obras que establecen un vínculo de interdependencia con la fronda preexistente y la incorporan al proyecto como un estrato más del límite. Por último, se enumeran las consecuencias de la incorporación del árbol al espacio interior y las dificultades o beneficios que surgen de esta coexistencia. El segundo gran tema que se deriva del estudio del Pabellón es la búsqueda de un espacio expositivo flexible basado en la diafanidad, la iluminación natural homogénea y la apertura física al parque. En primer lugar se analiza la planta liberada de las servidumbres de estructura, instalaciones, espacios servidores y accesos fijos como soporte de la versatilidad de uso, así como la ocupación del espacio diáfano. En segundo lugar establecemos un análisis comparativo de la configuración del filtro lumínico en otras cubiertas que, al igual que el Pabellón, también persiguen la generación de una iluminación homogénea. Por último se analiza el grado de apertura física del espacio interior al exterior y los niveles de relación que se establecen con el espacio público circundante. La relectura finaliza con el estudio del Pabellón en el contexto de los espacios expositivos de Sverre Fehn para comprender la singularidad de este edificio en el conjunto de la obra del arquitecto noruego y comprobar cómo se plantean en los casos estudiados la exhibición del objeto, el recorrido y la luz. El desarrollo de esta tesis en torno al Pabellón está motivada por la consideración de que constituye un ejemplo en el que se condensan valores fundamentales de la arquitectura. Esta obra propone un espacio antimonumental que interactúa con las personas y que está caracterizada por la manipulación de los límites físicos, el compromiso con el programa, las preexistencias y el lugar donde se implanta. Representa un proyecto rotundo cuya estructura y sistema de relaciones se fundamenta en el plano de la realidad concreta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen En la última década la tecnología láser se ha convertido en una herramienta imprescindible en la fabricación de dispositivos fotovoltaicos, muy especial¬mente en aquellos basados en tecnología de lámina delgada. Independiente¬mente de crisis coyunturales en el sector, la evolución en los próximos años de estas tecnologías seguirá aprovechándose de la flexibilidad y calidad de proceso de la herramienta láser para la consecución de los dos objetivos básicos que harán de la fotovoltaica una opción energética económicamente viable: la reducción de costes de fabricación y el aumento de eficiencia de los dispositivos. Dentro de las tecnologías fotovoltaicas de lámina delgada, la tecnología de dispositivos basados en silicio amorfo ha tenido un gran desarrollo en sistemas estándar en configuración de superestrato, pero su limitada efi¬ciencia hace que su supervivencia futura pase por el desarrollo de formatos en configuración de substrato sobre materiales flexibles de bajo coste. En esta aproximación, las soluciones industriales basadas en láser actualmente disponibles para la interconexión monolítica de dispositivos no son aplica¬bles, y desde hace años se viene investigando en la búsqueda de soluciones apropiadas para el desarrollo de dichos procesos de interconexión de forma que sean transferibles a la industria. En este contexto, esta Tesis propone una aproximación completamente orig¬inal, demostrando la posibilidad de ejecutar una interconexión completa de estos dispositivos irradiando por el lado de la lámina (es decir de forma com¬patible con la opción de configuración de substrato y, valga la redundancia, con el substrato del dispositivo opaco), y con fuentes láser emitiendo en UV. Este resultado, obtenido por primera vez a nivel internacional con este trabajo, aporta un conocimiento revelador del verdadero potencial de estas fuentes en el desarrollo industrial futuro de estas tecnologías. Si bien muy posiblemente la solución industrial final requiera de una solución mixta con el empleo de fuentes en UV y, posiblemente, en otras longitudes de onda, esta Tesis y su planteamiento novedoso aportan un conocimiento de gran valor a la comunidad internacional por la originalidad del planteamiento seguido, los resultados parciales encontrados en su desarrollo (un número importante de los cuales han aparecido en revistas del JCR que recogen en la actualidad un número muy significativo de citas) y porque saca además a la luz, con las consideraciones físicas pertinentes, las limitaciones intrínsecas que el desarrollo de procesos de ablación directa selectiva con láseres UV en parte de los materiales utilizados presenta en el rango temporal de in¬teracción de ns y ps. En este trabajo se han desarrollado y optimizado los tres pasos estándar de interconexión (los habitualmente denominados Pl, P2 y P3 en la industria fotovoltaica) demostrando las ventajas y limitaciones del uso de fuentes en UV tanto con ancho temporal de ns como de ps. En particular destaca, por el éxito en los resultados obtenidos, el estudio de procesos de ablación selectiva de óxidos conductores transparentes (en este trabajo utilizados tanto como contacto frontal así como posterior en los módulos) que ha generado resultados, de excelente acogida científica a nivel internacional, cuya aplicación trasciende el ámbito de las tecnologías de silicio amorfo en lámina delgada. Además en este trabajo de Tesis, en el desarrollo del objetivo citado, se han puesto a punto técnicas de análisis de los procesos láser, basadas en métodos avanzados de caracterización de materiales (como el uso combi¬nado de la espectroscopia dispersiva de rayos X y la microscopía confocal de barrido) que se presentan como auténticos avances en el desarrollo de técnicas específicas de caracterización para el estudio de los procesos con láser de ablación selectiva de materiales en lámina delgada, procesos que no solo tienen impacto en el ámbito de la fotovoltaica, sino también en la microelectrónica, la biotecnología, la microfabricación, etc. Como resultado adicional, parte de los resultados de este trabajo, han sido aplicados exi¬tosamente por el grupo de investigaci´on en la que la autora desarrolla su labor para conseguir desarrollar procesos de enorme inter´es en otras tec-nolog´ıas fotovoltaicas, como las tecnolog´ıas est´andar de silicio amorfo sobre vidrio en configuraci´on de superestrato o el procesado de capas delgadas en tecnolog´ıas convencionales de silicio cristalino. Por u´ltimo decir que este trabajo ha sido posible por una colaboraci´on muy estrecha entre el Centro L´aser de la UPM, en el que la autora de¬sarrolla su labor, y el Grupo de Silicio Depositado del Centro de Inves¬tigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, que, junto al Grupo de Energ´ıa Fotovoltaica de la Universidad de Barcelona, han preparado la mayor parte de las muestras utilizadas en este estudio. Dichas colaboraciones se han desarrollado en el marco de varios proyectos de investigaci´on aplicada con subvenci´on pu´blica, tales como el proyecto singular estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), el proyecto INNDISOL (IPT-420000-2010-6), ambos financiados porel Fondo Europeo de Desarrollo Regional FEDER (UE) ”Una manera de hacer Europa y el MICINN, y los proyectos de Plan Nacional AMIC (ENE2010-21384-C04-´ 02) y CLASICO (ENE2007-6772-C04-04), cuya financiaci´on ha permitido en gran parte llevar a t´ermino este trabajo Abstract In the last decade, the laser technology has turned into an indispensable tool in the production of photovoltaic devices, especially of those based on thin film technology. Regardless the current crisis in the sector, the evolution of these technologies in the upcoming years will keep taking advantage of the flexibility and process quality of the laser tool for the accomplishment of the two basic goals that will convert the photovoltaic energy into economically viable: the manufacture cost reduction and the increase in the efficiency of the devices. Amongst the thin film laser technologies, the technology of devices based on amorphous silicon has had a great development in standard systems of superstrate configuration, but its limited efficiency makes its survival de¬pendant on the development of formats in substrate configuration with low cost flexible materials. In this approach, the laser industrial solutions cur¬rently available for the monolithic interconnection are not applicable, and in the last few years the investigations have been focused on the search of appropriate solutions for the development of such interconnection processes in a way that the same are transferable to the industry. In this context, this Thesis proposes a totally original approach, proving the possibility of executing a full interconnection of these devices by means of irradiation from the film side, i.e., compatible with the substrate con¬figuration, and with UV laser sources. This result, obtained for the first time at international level in this work, provides a revealing knowledge of the true potential of these sources in the future industrial development of these technologies. Even though very probably the final industrial solution will require a combination of the use of UV sources along with other wave¬lengths, this Thesis and its novel approach contribute with a high value to the international community because of the originality of the approach, the partial results found throughout its development (out of which, a large number has appeared in JCR journals that currently accumulate a signifi¬cant number of citations) and brings to light, with the pertinent scientific considerations, the intrinsic limitations that the selective direct ablation processes with UV laser present in the temporal range of interaction of ns and ps for part of the materials used in this study. More particularly, the three standard steps of interconnection (usually de¬nominated P1, P2 and P3 in the photovoltaic industry) have been developed and optimized, showing the advantages as well as the limitations of the use of UV sources in both the ns and ps pulse-width ranges. It is highly remark¬able, because of the success in the obtained results, the study of selective ablation processes in transparent conductive oxide (in this work used as a front and back contact), that has generated results, of excellent interna¬tional scientific reception, whose applications go beyond the scope of thin film photovoltaic technologies based on amorphous silicon. Moreover, in this Thesis, with the development of the mentioned goal, differ¬ent techniques of analysis of laser processes have been fine-tuned, basing the same in advanced methods for material characterization (like the combined use of EDX Analysis and Confocal Laser Scanning Microscopy) that can be presented as true breakthroughs in the development of specific techniques for characterization in the study of laser processes of selective ablation of materials in thin film technologies, processes that not only have impact in the photovoltaic field, but also in those of microelectronics, biotechnology, micro-fabrication, etc. As an additional outcome, part of the results of this work has been suc¬cessfully applied, by the investigation group to which the author belongs, to the development of processes of enormous interest within other photo¬voltaic technologies, such as the standard technologies on amorphous silicon over glass in superstrate configuration or the processing of thin layers in conventional technologies using crystalline silicon. Lastly, it is important to mention that this work has been possible thanks to the close cooperation between the Centro L´aser of the UPM, in which the author develops her work, and the Grupo de Silicio Depositado of Centro de Investigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, which, along with the Grupo de Energ´ıa Fotovoltaica of Univer¬sidad de Barcelona, has prepared the largest part of the samples utilized in this study. Such collaborations have been carried out in the context of several projects of applied investigation with public funding, like Proyecto Singular Estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), Proyecto IN-NDISOL (IPT-420000-2010-6), both funded by the European Regional De¬velopment Fund (ERDF), ”Una manera de hacer Europa” and MICINN, and the projects of Plan Nacional AMIC (ENE2010-21384-C04-02) and ´ CLASICO (ENE2007-6772-C04-04), whose funds have enabled the devel-opment of large part of this work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis Doctoral presenta las investigaciones y los trabajos desarrollados durante los años 2008 a 2012 para el análisis y diseño de un patrón primario de ruido térmico de banda ancha en tecnología coaxial. Para ubicar esta Tesis en su campo científico es necesario tomar conciencia de que la realización de mediciones fiables y trazables forma parte del sostenimiento del bienestar de una sociedad moderna y juega un papel crítico en apoyo de la competitividad económica, la fabricación y el comercio, así como de la calidad de vida. En el mundo moderno actual, una infraestructura de medición bien desarrollada genera confianza en muchas facetas de nuestra vida diaria, porque nos permite el desarrollo y fabricación de productos fiables, innovadores y de alta calidad; porque sustenta la competitividad de las industrias y su producción sostenible; además de contribuir a la eliminación de barreras técnicas y de dar soporte a un comercio justo, garantizar la seguridad y eficacia de la asistencia sanitaria, y por supuesto, dar respuesta a los grandes retos de la sociedad moderna en temas tan complicados como la energía y el medio ambiente. Con todo esto en mente se ha desarrollado un patrón primario de ruido térmico con el fin de aportar al sistema metrológico español un nuevo patrón primario de referencia capaz de ser usado para desarrollar mediciones fiables y trazables en el campo de la medida y calibración de dispositivos de ruido electromagnético de radiofrecuencia y microondas. Este patrón se ha planteado para que cumpla en el rango de 10 MHz a 26,5 GHz con las siguientes especificaciones: Salida nominal de temperatura de ruido aproximada de ~ 83 K. Incertidumbre de temperatura de ruido menor que ± 1 K en todo su rango de frecuencias. Coeficiente de reflexión en todo su ancho de banda de 0,01 a 26,5 GHz lo más bajo posible. Se ha divido esta Tesis Doctoral en tres partes claramente diferenciadas. La primera de ellas, que comprende los capítulos 1, 2, 3, 4 y 5, presenta todo el proceso de simulaciones y ajustes de los parámetros principales del dispositivo con el fin de dejar definidos los que resultan críticos en su construcción. A continuación viene una segunda parte compuesta por el capítulo 6 en donde se desarrollan los cálculos necesarios para obtener la temperatura de ruido a la salida del dispositivo. La tercera y última parte, capítulo 7, se dedica a la estimación de la incertidumbre de la temperatura de ruido del nuevo patrón primario de ruido obtenida en el capítulo anterior. Más concretamente tenemos que en el capítulo 1 se hace una exhaustiva introducción del entorno científico en donde se desarrolla este trabajo de investigación. Además se detallan los objetivos que se persiguen y se presenta la metodología utilizada para conseguirlos. El capítulo 2 describe la caracterización y selección del material dieléctrico para el anillo del interior de la línea de transmisión del patrón que ponga en contacto térmico los dos conductores del coaxial para igualar las temperaturas entre ambos y mantener la impedancia característica de todo el patrón primario de ruido. Además se estudian las propiedades dieléctricas del nitrógeno líquido para evaluar su influencia en la impedancia final de la línea de transmisión. En el capítulo 3 se analiza el comportamiento de dos cargas y una línea de aire comerciales trabajando en condiciones criogénicas. Se pretende con este estudio obtener la variación que se produce en el coeficiente de reflexión al pasar de temperatura ambiente a criogénica y comprobar si estos dispositivos resultan dañados por trabajar a temperaturas criogénicas; además se estudia si se modifica su comportamiento tras sucesivos ciclos de enfriamiento – calentamiento, obteniendo una cota de la variación para poder así seleccionar la carga que proporcione un menor coeficiente de reflexión y una menor variabilidad. En el capítulo 4 se parte del análisis de la estructura del anillo de material dieléctrico utilizada en la nota técnica NBS 1074 del NIST con el fin de obtener sus parámetros de dispersión que nos servirán para calcular el efecto que produce sobre el coeficiente de reflexión de la estructura coaxial completa. Además se realiza un estudio posterior con el fin de mejorar el diseño de la nota técnica NBS 1074 del NIST, donde se analiza el anillo de material dieléctrico, para posteriormente realizar modificaciones en la geometría de la zona donde se encuentra éste con el fin de reducir la reflexión que produce. Concretamente se estudia el ajuste del radio del conductor interior en la zona del anillo para que presente la misma impedancia característica que la línea. Y para finalizar se obtiene analíticamente la relación entre el radio del conductor interior y el radio de la transición de anillo térmico para garantizar en todo punto de esa transición la misma impedancia característica, manteniendo además criterios de robustez del dispositivo y de fabricación realistas. En el capítulo 5 se analiza el comportamiento térmico del patrón de ruido y su influencia en la conductividad de los materiales metálicos. Se plantean las posibilidades de que el nitrógeno líquido sea exterior a la línea o que éste penetre en su interior. En ambos casos, dada la simetría rotacional del problema, se ha simulado térmicamente una sección de la línea coaxial, es decir, se ha resuelto un problema bidimensional, aunque los resultados son aplicables a la estructura real tridimensional. Para la simulación térmica se ha empleado la herramienta PDE Toolbox de Matlab®. En el capítulo 6 se calcula la temperatura de ruido a la salida del dispositivo. Se parte del estudio de la aportación a la temperatura de ruido final de cada sección que compone el patrón. Además se estudia la influencia de las variaciones de determinados parámetros de los elementos que conforman el patrón de ruido sobre las características fundamentales de éste, esto es, el coeficiente de reflexión a lo largo de todo el dispositivo. Una vez descrito el patrón de ruido electromagnético se procede, en el capítulo 7, a describir los pasos seguidos para estimar la incertidumbre de la temperatura de ruido electromagnético a su salida. Para ello se utilizan dos métodos, el clásico de la guía para la estimación de la incertidumbre [GUM95] y el método de simulación de Monte Carlo. En el capítulo 8 se describen las conclusiones y lo logros conseguidos. Durante el desarrollo de esta Tesis Doctoral se ha obtenido un dispositivo novedoso susceptible de ser patentado, que ha sido registrado en la Oficina Española de Patentes y Marcas (O.E.P.M.) en Madrid, de conformidad con lo establecido en el artículo 20 de la Ley 11/1986, de 20 de Marzo, de Patentes, con el título Patrón Primario de Ruido Térmico de Banda Ancha (Referencia P-101061) con fecha 7 de febrero de 2011. ABSTRACT This Ph. D. work describes a number of investigations that were performed along the years 2008 to 2011, as a preparation for the study and design of a coaxial cryogenic reference noise standard. Reliable and traceable measurement underpins the welfare of a modern society and plays a critical role in supporting economic competitiveness, manufacturing and trade as well as quality of life. In our modern world, a well developed measurement infrastructure gives confidence in many aspects of our daily life, for example by enabling the development and manufacturing of reliable, high quality and innovative products; by supporting industry to be competitive and sustainable in its production; by removing technical barriers to trade and supporting fair trade; by ensuring safety and effectiveness of healthcare; by giving response to the major challenges in key sectors such energy and environment, etc. With all this in mind we have developed a primary standard thermal noise with the aim of providing the Spanish metrology system with a new primary standard for noise reference. This standard will allow development of reliable and traceable measurements in the field of calibration and measurement of electromagnetic noise RF and microwave devices. This standard has been designed to work in the frequency range from 10 MHz to 26.5 GHz, meeting the following specifications: 1. Noise temperature output is to be nominally ~ 83 K. 2. Noise temperature uncertainty less than ± 1 K in the frequency range from 0.01 to 26.5 GHz. 3. Broadband performance requires as low a reflection coefficient as possible from 0.01 to 26.5 GHz. The present Ph. D. work is divided into three clearly differentiated parts. The first one, which comprises Chapters 1 to 5, presents the whole process of simulation and adjustment of the main parameters of the device in order to define those of them which are critical for the manufacturing of the device. Next, the second part consists of Chapter 6 where the necessary computations to obtain the output noise temperature of the device are carried out. The third and last part, Chapter 7, is devoted to the estimation of the uncertainty related to the noise temperature of the noise primary standard as obtained in the preceding chapter. More specifically, Chapter 1 provides a thorough introduction to the scientific and technological environment where this research takes place. It also details the objectives to be achieved and presents the methodology used to achieve them. Chapter 2 describes the characterization and selection of the bead dielectric material inside the transmission line, intended to connect the two coaxial conductors equalizing the temperature between the two of them and thus keeping the characteristic impedance constant for the whole standard. In addition the dielectric properties of liquid nitrogen are analyzed in order to assess their influence on the impedance of the transmission line. Chapter 3 analyzes the behavior of two different loads and of a commercial airline when subjected to cryogenic working conditions. This study is intended to obtain the variation in the reflection coefficient when the temperature changes from room to cryogenic temperature, and to check whether these devices can be damaged as a result of working at cryogenic temperatures. Also we try to see whether the load changes its behavior after successive cycles of cooling / heating, in order to obtain a bound for the allowed variation of the reflection coefficient of the load. Chapter 4 analyzes the ring structure of the dielectric material used in the NBS technical note 1074 of NIST, in order to obtain its scattering parameters that will be used for computation of its effect upon the reflection coefficient of the whole coaxial structure. Subsequently, we perform a further investigation with the aim of improving the design of NBS technical note 1074 of NIST, and modifications are introduced in the geometry of the transition area in order to reduce the reflection it produces. We first analyze the ring, specifically the influence of the radius of inner conductor of the bead, and then make changes in its geometry so that it presents the same characteristic impedance as that of the line. Finally we analytically obtain the relationship between the inner conductor radius and the radius of the transition from ring, in order to ensure the heat flow through the transition thus keeping the same reflection coefficient, and at the same time meeting the robustness requirements and the feasibility of manufacturing. Chapter 5 analyzes the thermal behavior of the noise standard and its influence on the conductivity of metallic materials. Both possibilities are raised that the liquid nitrogen is kept outside the line or that it penetrates inside. In both cases, given the rotational symmetry of the structure, we have simulated a section of coaxial line, i.e. the equivalent two-dimensional problem has been resolved, although the results are applicable to the actual three-dimensional structure. For thermal simulation Matlab™ PDE Toolbox has been used. In Chapter 6 we compute the output noise temperature of the device. The starting point is the analysis of the contribution to the overall noise temperature of each section making up the standard. Moreover the influence of the variations in the parameters of all elements of the standard is analyzed, specifically the variation of the reflection coefficient along the entire device. Once the electromagnetic noise standard has been described and analyzed, in Chapter 7 we describe the steps followed to estimate the uncertainty of the output electromagnetic noise temperature. This is done using two methods, the classic analytical approach following the Guide to the Estimation of Uncertainty [GUM95] and numerical simulations made with the Monte Carlo method. Chapter 8 discusses the conclusions and achievements. During the development of this thesis, a novel device was obtained which was potentially patentable, and which was finally registered through the Spanish Patent and Trademark Office (SPTO) in Madrid, in accordance with the provisions of Article 20 of Law 11/1986 about Patents, dated March 20th, 1986. It was registered under the denomination Broadband Thermal Noise Primary Standard (Reference P-101061) dated February 7th, 2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La República de El Salvador está localizada al norte de Centroamérica, limita al norte con Honduras, al este con Honduras y Nicaragua en el Golfo de Fonseca, al oeste con Guatemala y al sur con el Océano Pacífico. Con una población de casi 6.3 millones de habitantes (2012) y una extensión territorial de algo más de 21.000 km2, es el país más pequeño de toda Centroamérica, con la densidad de población más alta (292 habitantes por km2) y una tasa de pobreza que supera el 34%. Actualmente el 63.2% de la población del país se concentra en las ciudades, y más de la cuarta parte de la población se asienta en el Área Metropolitana de El Salvador (AMSS), lo que supone un área de alrededor del 2.6% del territorio salvadoreño. Según el Banco Mundial, el país tiene un PIB per cápita de 3790 dólares (2012). Asimismo, desde hace ya varios años el elemento clave en la economía salvadoreña ha sido las remesas del exterior, las cuales en el 2006 representaron el 15% del PIB, manteniéndose por varios años consecutivos como la más importante fuente de ingresos externos con que cuenta el país (Comisión Económica para América Latina‐CEPAL, 2007). La inestabilidad económica, la desigual distribución de la riqueza, así como la brecha entre los ámbitos urbano y rural, son las principales causas que limitan las capacidades de desarrollo social del país. El Salvador es uno de los países ecológicamente más devastado de América Latina. Más del 95% de sus bosques tropicales de hojas caducas han sido destruidos y más del 70% de la tierra sufre una severa erosión. Según la FAO el país se encuentra en un franco proceso de desertificación. Como consecuencia de ello, casi todas las especies de animales salvajes se han extinguido o están al borde de la extinción, sin que hasta ahora haya indicios de revertir tal proceso. Por otra parte, en el AMSS el 13% de la población habita sobre terrenos en riesgo por derrumbes o demasiado próximos a fuentes de contaminación (Mansilla, 2009). Por su ubicación geográfica, dinámica natural y territorial, El Salvador ha estado sometido históricamente a diferentes amenazas de origen natural, como terremotos, tormentas tropicales, sequías, actividad volcánica, inundaciones y deslizamientos, los que, sumados a los procesos sociales de transformación (la deforestación, los cambios de uso del suelo y la modificación de los cauces naturales), propician condiciones de riesgo y plantean altas posibilidades de que ocurran desastres. Es evidente que la suma del deterioro económico, social y ambiental, combinado con la multiplicidad de amenazas a las que puede verse sometido el territorio, hacen al país sumamente vulnerable a la ocurrencia de desastres de distintas magnitudes e impactos. En la historia reciente de El Salvador se han producido numerosos eventos de gran magnitud, tales como los terremotos de enero y febrero de 2001. El 13 de enero de 2001 El Salvador sufrió un terremoto de magnitud Mw 7.7 relacionado con la zona de subducción de la placa del Coco bajo la placa Caribe, dejando alrededor de 900 muertos y numerosos daños materiales. A este terremoto le siguió un mes después, el 13 de febrero de 2001, otro de magnitud Mw 6.6 de origen continental que sumó más de 300 víctimas mortales y terminó de derribar gran cantidad de casas ya dañadas por el terremoto anterior. Ambos eventos dispararon enormes deslizamientos de tierra, que fueron los responsables de la mayoría de las muertes. Como se observó durante el terremoto de 2001, este tipo de sismicidad implica un alto riesgo para la sociedad salvadoreña debido a la gran concentración de población en zonas con fuertes pendientes y muy deforestadas susceptibles de sufrir deslizamientos, y debido también a la escasez de planes urbanísticos. La complicada evolución sociopolítica del país durante los últimos 50 años, con una larga guerra civil, ha influido que hayan sido escasas las investigaciones científicas relacionadas con la sismotectónica y el riesgo sísmico asociada a la geología local. La ocurrencia de los terremotos citados disparó un interés a nivel internacional en la adquisición e interpretación de nuevos datos de tectónica activa que con los años han dado lugar a diferentes trabajos. Fue precisamente a partir del interés en estos eventos del 2001 cuando comenzó la colaboración de la Dra. Benito y el Dr. Martínez‐Díaz (directores de esta tesis) en El Salvador (Benito et al. 2004), lo que dio lugar a distintos proyectos de cooperación e investigación que han tenido lugar hasta la actualidad, y que se han centrado en el desarrollo de estudios geológicos, sismológicos para mejorar el cálculo de la amenaza sísmica en El Salvador. Según Martínez‐Díaz et al. (2004) la responsable del terremoto de febrero de 2001 fue la que se denomina como Zona de Falla de El Salvador (ZFES), una zona de falla que atraviesa el país de este a oeste que no había sido descrita con anterioridad. Con el fin de estudiar y caracterizar el comportamiento de este sistema de fallas para su introducción en la evaluación de la amenaza sísmica de la zona se plantean diferentes estudios sismotectónicos y paleosísmicos, y, entre ellos, esta tesis que surge de la necesidad de estudiar el comportamiento cinemático actual de la ZFES, mediante la aplicación de técnicas geodésicas (GNSS) y su integración con datos geológicos y sismológicos. Con el objetivo de reconocer la ZFES y estudiar la viabilidad de la aplicación de estas técnicas en la zona de estudio, realicé mi primer viaje a El Salvador en septiembre de 2006. A raíz de este viaje, en 2007, comienza el proyecto ZFESNet (Staller et al., 2008) estableciendo las primeras estaciones y realizando la primera campaña de observación en la ZFES. Han sido 6 años de mediciones e intenso trabajo de lo que hoy se obtienen los primeros resultados. El interés que despiertan los terremotos y sus efectos, así como la vulnerabilidad que tiene El Salvador a estos eventos, ha sido para la autora un aliciente añadido a su trabajo, animándola a perseverar en el desarrollo de su tesis, a pesar de la multitud de imprevistos y problemas que han surgido durante su transcurso. La aportación de esta tesis al conocimiento actual de la ZFES se espera que sea un germen para futuras investigaciones y en particular para mejorar la evaluación de la amenaza sísmica de la zona. No obstante, se hace hincapié en que tan importante como el conocimiento de las fuentes sísmicas es su uso en la planificación urbanística del terreno y en la elaboración de normas sismoresistentes y su aplicación por parte de los responsables, lo cual ayudaría a paliar los efectos de fenómenos naturales como el terremoto, el cual no podemos evitar. El proyecto ZFESNet ha sido financiado fundamentalmente por tres proyectos de las convocatorias anuales de Ayudas para la realización de actividades con Latinoamérica de la UPM, de los que la autora de esta tesis ha sido la responsable, estos son: “Establecimiento de una Red de Control GPS en la Zona de Falla de El Salvador”, “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador” y “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador II”, y parcialmente por el proyecto de la Agencia Española de Cooperación y Desarrollo (AECID); “Desarrollo de estudios geológicos y sismológicos en El Salvador dirigidos a la mitigación del riesgo sísmico”, y el Proyecto Nacional I+D+i SISMOCAES: “Estudios geológicos y sísmicos en Centroamérica y lecciones hacia la evaluación del riesgo sísmico en el sur de España”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis se organiza en un volumen de Memoria integrada por once capítulos que constituyen el cuerpo de la tesis y otro volumen de Apéndices titulado “Caracterización geotécnica de Base de los suelos de España” que reúne en forma de cuadros las características de textura, permeabilidad, humedad-succión, erosionabilidad y resistencia al corte de los cuarenta y dos perfiles de suelos representativos de los tipos del Mapa de suelos De España. Estos cuadros han sido elaborados originalmente por la doctorando durante sus estudios para la obtención del DEA de la Suficiencia Investigadora, excepto los de resistencia al corte que lo han sido también por la doctorando de forma original, pero ya en la etapa de redacción de la tesis. En el Capítulo 1 “Introducción” se describe la motivación, antecedentes, alcance y contenido de la tesis, ordenado según el índice que en él se incluye. Los Capítulos 2 “Meteorización, 3 “Balance Hídrico” y 4 “Humedades características” constituyen el “estado del arte” en el momento actual de los temas de geotecnia ambiental relacionados con la degradación de la superficie terrestre y la estabilidad de taludes. El Capítulo 2, tras matizar algunas generalidades, aporta elementos para la cuantificación de la alteración de rocas como el “índice climático de Weinert” y de la erosión de suelos como la “ecuación universal de pérdida de suelo (U.S.L.E.)” El Capítulo 3, partiendo de los fenómenos de precipitación y evapotranspiración, plantea el balance hídrico en vertientes con instrumentos para evaluar la infiltración y la escorrentía, conceptos imprescindibles para adentrarse en los de resistencia y erosionabilidad del conjunto suelo-agua. En los Apéndices A1 y A2, se recogen valores de coeficientes de infiltración en condiciones saturadas y no saturadas de los perfiles de suelos del Mapa de España. El Capítulo 4 se dedica al estudio de este conjunto suelo-agua con la definición de conceptos que lo caracterizan, basados en la relación entre los contenidos de ambos elementos o “humedad”, sus valores máximos y mínimos y la forma en la que es retenida el agua por el suelo. Este capítulo acaba con el concepto de “Curva característica Suelo-Agua/Soil Water Characteristic curve (SWCC)”, que liga el contenido de agua de un suelo con la tensión a la que está retenida (uauw) “succión” o con su expresión más usual “pF”. En el Apéndice A 3 se adjuntan las SWCC de los perfiles de suelos del Mapa de suelos de España. En el Capítulo 5 “Resistencia al corte de los suelos”, se detalla la influencia que tienen sobre la resistencia de los suelos factores como el paso del tiempo, el contenido de humedad y la presencia y tipo de vegetación en la superficie del suelo estudiado. El Capítulo 6 “Evaluación de la erosión”, analiza el factor de erosionabilidad del suelo “factor K” de la U.S.L.E., su evaluación en función de la textura, estructura y permeabilidad del suelo, con la estimación hecha para los cuarenta y dos perfiles de suelos del Mapa de España, contenida en el Apéndice 4. En el Capítulo 7 “Metodología de diseño” se hacen en su primera parte unas consideraciones geoambientales de diseño aplicables al estudio de los problemas de inestabilidades en taludes. La segunda parte constituye el núcleo de la tesis con la propuesta de “estimación de los parámetros de resistencia al corte del suelo”, consecuente con las teorías y metodología de análisis expuesta en los capítulos anteriores. En el Apéndice A 5 se presentan los valores de los parámetros coulombianos de resistencia al corte, ”c y Ф” estimados según la caracterización climática a partir del índice de Thornthwaite, en condicionesde diseño para humedades naturales máxima y mínima de los cuarenta y dos perfiles de suelos del Mapa de suelos de España. El Capítulo 8 “Aplicación a casos reales” se considera de gran interés al constituir una auténtica continuación de la segunda parte del capítulo anterior, desarrollando la metodología expuesta en él a cuatro problemáticas de infraestructuras de obras lineales, relacionadas con problemas de erosión y deslizamientos en taludes. El Capítulo 9 “Ensayos de referencia” se incluye como punto de apoyo (referencia) a las teorías expuestas, valorando la idoneidad de los tipos de ensayos y tipos de suelos seleccionados (Laboratorio de Geotecnia del CEDEX y Laboratorio Hong-Kong University of Science and Technology), utilizados para la obtención, por correlaciones deducidas, de las curvas SWCC de los perfiles de suelos del Mapa de España, incluídas en el Apéndice A 3, como se ha citado antes. En el Capítulo 10 “Conclusiones y Futuras Líneas de Investigación”se apuntan en primer lugar unas conclusiones que, a juicio de la doctorando, se pueden extraer con interés de esta tesis y a continuación se esbozan unas posibles líneas de investigación, fundamentalmente de tipo experimental, que complementarían los avances derivados de esta tesis o podrían esclarecer y abrir nuevas interpretaciones de los fenómenos naturales de erosión y estabilidad de taludes en los que ésta se ha centrado. Finalmente, en el Capítulo 11 “Bibliografía” se han reunido 328 referencias que reflejan una visión amplia y bastante completa del tema tratado, obtenida complementando las de tesis anteriores sobre esta singular materia (“Efecto estabilizador de la vegetación en taludes”, L Fort 1975 y “Determinación de las características de fricción en el contacto suelo-geotextil a diferentes succiones, mediante equipos de laboratorio singulares”, E Asanza 2009), con propias de la doctorando (9) y las consideradas de mayor interés de los últimos Congresos sobre Suelos no saturados,”Unsat 95”, “Unsat 2002” y “Unsat 2011” entre otros. ABSTRACT The thesis is organized in a volume of Memory composed of eleven chapters that make up the body of the thesis and other Appendices volume entitled "Geotechnical characterization of basis of the soils of Spain" that combines the characteristics of texture, permeability, moisture-suction, erosionability, and shear strength of forty-two profiles of soils representative of the types of the soil of Spain map in the form of pictures. These pictures have been produced originally by the student during their studies to obtain the DEA of the research, except those of the shear strength, also been done by the PhD student in an original way, but already at the stage of drafting of the thesis. Chapter 1 "Introducción" describes the motivation, background, scope and content of the thesis, ordered according to the index that is included. The Chapters: 2 "Weathering, 3 “Water Balance” and 4 “moisture characteristics" are the "State of the art" at the present time of geotechnical environmental issues related to the degradation of the Earth's surface and the slope stability. Chapter 2 after clarify some general information, provides elements for the quantification of the alteration of rocks as "Weinert climate index" and soil erosion as the "universal equation of loss of soil (U.S.L.E.)" Chapter 3, on the basis of the phenomena of precipitation and evapotranspiration, raises the water balance in sheds with instruments to evaluate infiltration and runoff, essential concepts into the resistance and erosionability water-soil joint. Values of soils coefficients of infiltration in saturated and unsaturated conditions from the Spain map of profiles are collected in the Appendices A1 and A2. Chapter 4 is dedicated to the study of this joint “soil-water”, with the definition of concepts that characterize it, based on the relationship between the contents of both elements or “moisture”, their maximum and minimum values and the way in which water is retained by the soil. This chapter ends with the concept of “Soil Water Characteristic curve (SWCC)", which linked the water content of a soil with the stress that it is retained (ua-uw) "suction" or its expression more usual "pF". The SWCC of the profiles of soils of the Spain soils Map are attached in the Appendix 3. In Chapter 5 “Soils shear strength”,is detailed the influence that they have on the resistance of soils factors such as the passage of time, the content of moisture and the presence and type of vegetation on the surface of the studied soil. Chapter 6 "Assessment of erosion", analyses the soil erodibility factor "Kfactor" of the U.S.L.E., its evaluation based on texture, structure and permeability of the soil, with the estimate for forty-two profiles of soils on the Spain Soils Map, contained in Appendix 4. Chapter 7 "Design methodology" some considerations are made in the first part geo-environmental design applicable to the study of the problems of instabilities in slopes. The second part constitutes the core of the thesis with the proposal of “estimation of parameters of shear strength”, of the soils consistent with theories and analytical methodology outlined in the previous chapters. Appendix A 5 presents the values of the coulombians parameters of shear strength, "c and Ф" according to the characterization of climate from the index of Thornthwaite, in design for natural moisture conditions maximum and minimum of forty-two profils of Spain Soils Map Chapter 8 "Application to real cases" is considered of great interest to constitute a true continuation of the second part of the previous chapter, developing the methodology exposed it to four problems of civil-works infrastructure, related to problems of erosion and landslides in slopes. Chapter 9 "Tests of reference" is included as point of support (reference) to the theories exposed, assessing the suitability of the types of tests and types of selected soils (Geotechnical laboratory of CEDEX and laboratory Hongkong University of Science and Technology), used to obtain, by deduced correlations, of curves SWCC of soils profiles on the Spain Soils Map, included in Appendix A. 3, as it was mentioned before. Chapter 10 "Conclusions and future research lines" are running first conclusions which, in the opinion of the candidate, can be extracted with interest of this thesis, and then, it outlines some possible lines of research, mainly experimental, which would complement the advances arising from this thesis or could clarify and open new interpretations of natural phenomena of erosion and slope stability in which it has focused. Finally, in Chapter 11 "Bibliography" 328 references have been included which reflect a broad and fairly comprehensive view of the subject matter, obtained complementing those of the previous theses on this singular issue ("Vegetation stabilizing effect on slopes", L Fort 1975, and "Determination of the characteristics of friction in the contact soil-geotextile to different-suctions, through special laboratory equipment", E Asanza 2009) with some of them from of the candidate (9) and the others from of the considered as the most interesting of recent conferences on unsaturated soils, "Unsat 95", "Unsat2002" and "Unsat 2011" among others.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se ha realizado un estudio de la distribución de plantas vasculares en un territorio situado entre las provincias de Cuenca, Guadalajara, Madrid y Toledo (España). El territorio estudiado está en la Submeseta Sur de la península ibérica, al sur del Sistema Central, norte de los Montes de Toledo y oeste del Sistema Ibérico, en zonas sedimentarias con poco relieve y clima mediterráneo, con grandes contrastes de temperatura y precipitaciones muy irregulares. Coincide con las regiones naturales llamadas: “Alcarrias”, “Campiñas de Madrid y Guadalajara” y “Vegas de los ríos de la Cuenca del Tajo”. Es lo que he llamado Cuenca Media del Tajo. En una primera fase se ha estudiado la flora regional para adquirir conocimientos previos mediante las consultas bibliográficas y de herbarios, se ha contado con bases de datos disponibles para MA, MACB, MAF, JACA, AH, ABH, VAL, SALA y EMMA. Se han revisado las aportaciones propias que en los últimos años he realizado en el territorio en relación a los temas tratados en la tesis. El trabajo de campo ha consistido en la realización de inventarios de presencia de flora. Ha sido muy importante la tarea herborizadora para llegar a la correcta identificación de las especies colectadas en los inventarios. De esta forma el autor ha confeccionado un herbario propio JML que en el territorio muestreado ha reunido cerca de 15000 números en las cuatro provincias estudiadas. Se ha hecho un muestreo sistemático del territorio con unos 6000 listados de plantas. Se ha tomado como unidad de muestreo la cuadrícula de UTM de 1 km de lado incluida como una centésima parte de la cuadrícula de UTM de 10 km. Se han seguido criterios para uniformizar el muestreo. Se ha apuntado el tiempo empleado y la superficie muestreada estimada en cada toma de datos. El criterio mínimo que tienen que cumplir todas las cuadrículas en el área estudiada ha sido que para cada cuadrícula de UTM de 5 km se han realizado al menos 5 inventarios en 5 cuadrículas diferentes de UTM de 1 km y al menos en una hora de tiempo. La unidad de comparación ha sido la cuadrícula UTM de 5 km. Se han informatizado los inventarios de campo, para ello se ha creado la base de datos TESIS en Microsoft office –Access-. Las principales tablas son LOCALIDAD, en la que se anotan las características del lugar muestreado y ESPECIES, que lista las especies de flora consideradas en las cuatro provincias del estudio. Por medio de formularios se han rellenado las tablas; destaca la tabla ESPECIE INVENTARIO que relaciona las tablas ESPECIES y LOCALIDAD; esta tabla cuenta en este momento con unos 165.000 registros. En la tabla ESPECIES_FPVI se visualizan las especies recopiladas. Se ha creado un indicador llamado FPVI “Flora permanentemente visible identificable” que consiste en atribuir a cada especie unos índices que nos permiten saber si una determinada planta se puede detectar en cualquier época del año. Los resultados presentados son: Creación de la base de datos TESIS. El Catálogo Florístico de la Cuenca Media del Tajo, que es el catálogo de la flora de las cuatro provincias desde el principio de la sistemática hasta las Saxifragáceas. En total se han recopilado 1028 taxones distribuidos en 77 familias. Se ha calculado el índice FPVI, para las especies del catálogo. La finalidad para la que se ha diseñado este índice es para poder comparar territorios. Para el desarrollo de ambos resultados ha sido fundamental el desarrollo de la tabla ESPECIES_PVI de la base de datos TESIS. En la tabla ESPECIES_PVI se han apuntado las características ecológicas y se revisa la información bibliográfica disponible para cada especie; las principales fuentes de información consultadas han sido Flora iberica, el proyecto “Anthos” y las bases de datos de los herbarios. Se ha apuntado sí se ha visto, sí está protegida o sí en un endemismo. Otros resultados son: la localización de las cuadrículas de UTM de 10 km, con mayor número de endemismos o especies singulares, con mayor valor botánico. Se ha realizado un par de ejemplos de estudios de autoecología de especie, en concreto Teucrium pumilum y Clematis recta. Se han confeccionando salidas cartográficas de distribución de especies. Se ha elaborado el herbario JML. Se ha presentado una sencilla herramienta para incluir inventarios florísticos, citas corológicas, consultas de autoecología o etiquetado de pliegos de herbario. Como colofón, se ha colaborado para desarrollar una aplicación informática de visualización, análisis y estudio de la distribución de taxones vegetales, que ha utilizado como datos de partida un porcentaje importante de los obtenidos para esta tesis. ABSTRACT I have made a study of the distribution of vascular plants in a territory located between the provinces of Cuenca, Guadalajara, Madrid and Toledo (Spain). The studied area is in the “Submeseta” South of the Iberian Peninsula, south of the Central System, north of the Montes de Toledo and west of the Iberian System, in sedimentary areas with little relief and Mediterranean climate, with big temperature contrasts and irregular rainfall. Coincides with the natural regions called "Alcarrias", "countryside of Madrid and Guadalajara" and “Vegas River Tagus Basin”. This is what I have called Middle Tagus Basin. In a first step we have studied the regional flora to acquire prior knowledge through the literature and herbaria consultations, it has had available databases for MA, MACB, MAF, JACA, AH, ABH, VAL, SALA and EMMA herbaria. The contributions I have made in the last years in the territory in relation to the topics discussed in the thesis have been revised. The field work consisted of conducting inventories presence of flora. Botanize was a very important task to get to the correct identification of the species collected in inventories. In this way the author has made his own herbarium JML in the sampled area has met at least 15000 samples in the four studied provinces. There has been a systematic sampling of the territory with nearly 6,000 listings of plants. Was taken as the sampling unit grid UTM 1 km side included as a hundredth of the UTM grid of 10 km from side. Criteria have been taken to standardize the sampling. Data were taken of the time spent and the estimated sampled surface. The minimum criteria they have to meet all the grids in the study area has been that for each UTM grid of 5 km have been made at least 5 stocks in 5 different grids UTM 1 km and at least one hour of time. The unit of comparison was the UTM grid of 5 km. I have computerized inventories of field, for it was created a database in Access- Microsoft office -TESIS. The main tables are LOCALIDAD, with caracteristics of the sampled location and ESPECIES, which lists the plant species considered in the four provinces of the study, is. Through forms I filled in the tables; highlights ESPECIE INVENTARIO table that relates the tables ESPECIES and LOCALIDAD, this table is counted at the moment with about 165,000 records. The table ESPECIES FPVI visualizes all recollected species. We have created an indicator called FPVI "Flora permanently visible identifiable" that attributes to each species indices that allow us to know whether a given plant can be detected in any season. The results presented are: Creating data base TESIS. The Floristic Books Middle Tagus Basin, which is a catalog of the flora of the four provinces since the beginning of the systematic until Saxifragaceae. In total 1028 collected taxa in 77 families. We calculated FPVI index for species catalog. The purpose for which this index designed is, to compare territories. For the development of both results, it was essential to develop the table ESPECIES_PVI TESIS data base. Table ESPECIES_PVI has signed the ecological characteristics and bibliographic information available for each species is revised; the main sources of information has been Flora iberica, the Anthos project databases of herbaria. Targeted species has been recorded, when seen, protected or endemism. Have also been located UTM grids of 10 km, with the largest number of endemic or unique species and more botanical value. There have been a couple of species autecology studies, namely Teucrium pumilum and Clematis recta, as an example of this type of study. They have been putting together maps of species distribution. We made herbarium JML. I have presented a simple tool to include floristic inventories, chorological appointments, consultations or to tag autoecology herbarium specimens. To cap it has worked to develop a computer application for visualization, analysis and study of the distribution of plant taxa, which has used as input data a significant percentage of those obtained for this thesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La infiltración de agua en el suelo y la recarga profunda del agua subterránea contenida en los acuíferos es un proceso lento en relación con otros fenómenos hidrológicos. La redacción de esta tesis ha pretendido contribuir al estudio de la influencia que el almacenamiento de la precipitación sólida en forma de manto de nieve y su eventual fusión puedan tener sobre dicho proceso en áreas de media montaña (1.000 – 2.000 m.) en las que con gran frecuencia se sitúan las cabeceras de los ríos peninsulares. Para ello se ha partido del análisis de las diferentes variables intervinientes durante un determinado periodo temporal y sobre un espacio geográfico concreto, por lo que su metodología es de naturaleza empírica. La extensión del periodo (2002/03 a 2010/11) ha venido condicionada por la disponibilidad de los valores de algunas de sus principales variables, como han sido el equivalente en agua de la nieve acumulada y los caudales procedentes de su fusión. Éstos se han obtenido como resultado de la aplicación del modelo ASTER, desarrollado en el programa de Evaluación de los Recursos Hídricos procedentes de la Innivación (ERHIN), calibrado – entre otros- con datos de precipitaciones, temperatura y caudales provenientes a su vez del Sistema Automático de Información Hidrológica (SAIH). Ambos programas fueron implantados por la Administración en las diferentes Confederaciones Hidrográficas y en determinados Organismos de cuenca actuales, en cuyo desarrollo participó el autor de esta tesis. En cuanto a la zona de estudio se ha procedido a su elección considerando las posibles áreas de media montaña en las que la presencia de la nieve fuera hidrológicamente significativa y estuvieran constituidas litológicamente por afloramientos permeables que no impidieran la infiltración en el terreno y la formación de acuíferos de cierta relevancia. El interés se centró discrecionalmente en la cuenca del Tajo, tanto por el carácter estratégico de la misma -como suministradora en la actualidad de excedentes a otras cuencas deficitarias- como por el valor representativo de sus condiciones climáticas y orográficas en relación con otras cuencas hidrográficas peninsulares. Para ello se partió de las cabeceras de ríos identificadas por el programa ERHIN por su interés nivológico para la implantación del modelo ASTER y de las Masas de Agua Subterráneas MASb (antes Unidades Hidrogeológicas UUHH) definidas en los planes hidrológicos. La intersección en el territorio de ambos criterios condujo, finalmente, a la zona del Alto Tajo, en la que se cumplen ambos requisitos. El tramo quedó concretado en el comprendido entre las cabeceras de los ríos Tajo y Guadiela y la cola de los embalses de Entrepeñas y Buendía respectivamente, puntos de cierre para la calibración llevada a cabo en la modelización ASTER. Gran parte de éste discurre, en su parte alta, sobre rocas carbonatadas (calizas y dolomías del Jurásico y Cretácico), relacionados con las MASb de Tajuña-Montes Universales, Molina de Aragón y Sigüenza-Maranchón. Los valores diarios de las reservas de agua en forma de nieve, evapotranspiración y caudales procedentes de la fusión se han obtenido a partir de los resultados del mencionado modelo, procediéndose al cálculo de la infiltración por balance hídrico durante el periodo de estudio considerado, teniendo en cuenta los valores de precipitación, evapotranspiración y aportaciones de caudales. Esto ha requerido el estudio previo de las condiciones hidrogeológicas de la zona seleccionada con objeto de conocer las posibles interconexiones subterráneas que pudieran alterar los saldos entre las variables intervinientes anteriormente citadas. Para ello se ha llevado a cabo la recopilación y análisis de la información hidrogeológica correspondiente a la documentación de los planes hidrológicos del Tajo (Plan Hidrológico de la cuenca del Tajo RD 1664/1998 y el actual Plan Hidrológico de la parte española de la Demarcación Hidrográfica del Tajo RD 270/2014) y de los estudios previos realizados por el organismo de cuenca y el Instituto Geológico y Minero de España (lGME) fundamentalmente. En relación con la MASb Tajuña-Montes Universales -cuya extensión supera la zona seleccionada- dichos estudios consideran su estructura geológica y distribución litológica, con intercalaciones impermeables que actúan como barreras, dividiendo a éstas en Subunidades e identificando las zonas de drenaje de sus respectivos acuíferos. También se ha considerado la documentación y estudios previos del Plan Hidrológico Nacional sobre las Unidades Hidrogeológicas compartidas entre ámbitos geográficos de diferentes planes hidrológicos. Se concluye que las divisorias hidrográficas de las cabeceras son sensiblemente coincidentes o abarcan las Subunidades Montes Universales meridionales, Priego, Cifuentes, Zaorejas, u Montes Universales septentrionales, que drenan hacia el Tajo/Guadiela (bien directamente, bien a través de afluentes como el Gallo, Ablanquejo, Cabrillas, Cuervo…), MASb Molina de Aragón, que drena al Tajo a través del río Gallo y MASb Sigüenza—Maranchón, que drena su parte correspondiente hacia el Tajo a través del Ablanquejo. Se descartan – salvo la pequeña salvedad del manantial de Cifuentes- las conexiones hidrogeológicas con otras MASb o Subunidades por lo que las cabeceras del Tajo y del Guadiela pueden considerarse como un Sistema independiente donde las precipitaciones no evaporadas escurren superficialmente o se infiltran y descargan hacia los embalses de Entrepeñas y Buendía. La cuantificación diaria y acumulada de los balances hídricos ha permitido calcular la evolución aproximada de las reservas de agua subterránea desde la fecha inicial. Originalmente los balances se realizaron de forma separada en las cabeceras del Tajo y del Guadiela, cuyos valores acumulados manifestaron una tendencia creciente en la primera y decreciente en la segunda. Dicha situación se equilibra cuando el balance se practica conjuntamente en ambas, apreciándose en la variación del volumen de agua subterránea una evolución acorde hidrológicamente con los ciclos de verano/invierno y periodos de sequía, manteniéndose sus valores medios a largo/medio plazo, poniendo en evidencia la existencia de interconexiones subterráneas entre ambas cuencas. El balance conjunto, agregando la cabecera del Tajuña (que también comparte los materiales permeables de la MASb Tajuña-Montes Universales) no reveló la existencia de nuevas interrelaciones hidrogeológicas que influyeran en los balances hídricos realizados Tajo/Guadiela, confirmando las conclusiones de los estudios hidrogeológicos anteriormente analizados. Se ha procedido a confrontar y validar los resultados obtenidos de la evolución de las reservas de agua subterránea mediante los siguientes procedimientos alternativos: - Cálculo de los parámetros de desagüe de la curva de agotamiento correspondiente al volumen de agua subterránea drenante hacia el Tajo/Guadiela. Éste se ha realizado a partir de las aportaciones mensuales entrantes en los embalses de Entrepeñas y Buendía durante los meses de junio, julio, agosto y septiembre, cuyos valores responden al perfil típico de descargas de un acuífero. A partir de éstos se ha determinado el volumen drenante correspondiente al primero de junio de cada año de la serie histórica considerada. - Determinación del caudal base por el método Wallingford y deducción de los volúmenes drenantes. Estimación de las recarga anuales - Cuantificación de la recarga anual por el método Sanz, Menéndez Pidal de Navascués y Távara. Se obtuvieron valores de recarga muy aproximados entre los calculados por los dos últimos procedimientos citados. Respecto a las reservas de agua subterránea almacenadas siguen una evolución semejante en todos los casos, lo que ha permitido considerar válidos los resultados conseguidos mediante balance hídrico. Confirmada su solidez, se han buscado correlaciones simples entre el volumen de las reservas subterráneas (como indicador estimativo del efecto de la infiltración) y los volúmenes procedentes de la fusión. La conclusión es que estos últimos no tienen un efecto determinante a escala anual sobre la infiltración,recarga y variación de los volúmenes de agua subterránea, frente al peso de otras variables (precipitación y evapotranspiración). No obstante se ha encontrado una buena correlación múltiple entre la recarga estimada y la precipitación eficaz (precipitación menos evapotranspiración) y fusión, que ha permitido cuantificar la contribución de esta última. Posteriormente se ha recurrido a la selección de los episodios más intensos de acumulación /fusión en las cabeceras del Tajo y Guadiela. Y se procedió a la comparación entre los resultados obtenidos por aplicación del modelo de simulación en los mismos periodos (normalmente de varios días de duración) con datos reales y con datos ficticios de temperatura que anularan o disminuyeran la presencia de nieve, apreciándose una gran sensibilidad del efecto de la temperatura sobre la evapotranspiración y estableciéndose nuevamente correlaciones lineales entre los volúmenes de fusión y el incremento de reservas subterráneas. Las mismas confirman el efecto “favorecedor” de la acumulación de agua en forma de nieve y su posterior licuación, sobre sobre la infiltración de agua en el suelo y almacenamiento subterráneo. Finalmente se establecieron varios escenarios climáticos (+1ºC; +3ºC; +1ºC y – 10% precipitación; y 3ºC – 10% precipitación) compatibles con las previsiones del IPCC para mediados y finales del presente siglo, determinándose mediante simulación ASTER los correspondientes valores de fusión. La correlación establecida a escala anual ha permitido evaluar el efecto de la disminución del volumen de fusión - en los diferentes escenarios – sobre la recarga, pronosticando un descenso de los caudales de estiaje y la desaparición del “efecto nieve” sobre la infiltración y recarga con un aumento de 3ºC de temperatura. Teniendo en cuenta las condiciones de representatividad de la zona elegida, resulta verosímil la extensión de las anteriores conclusiones a otras cabeceras fluviales enclavadas en áreas de media montaña situadas entre 1000 a 2000m y sus efectos aguas abajo.Water infiltration into the soil and groundwater recharge deep water in aquifers is slow relative to other hydrological phenomena. The wording of this thesis aims to contribute to the study of the influence that the storage of solid precipitation as snow cover and its eventual melting may have on this process in mid-mountain areas (1000 - 2,000 m) where very often the headwaters of the peninsular rivers are located. For this party analysis of the different variables involved has over a given time period and a particular geographical area, so that their methodology is empirical in nature. The extension of the period (2002/03 to 2010/11) has been conditioned by the availability of the values of some of its key variables, as were the water equivalent of the snow and flows from melting. These have been obtained as a result of the application of ASTER model, developed in the program Evaluation of Water Resources from the Innivation (ERHIN), calibrated - among others data of rainfall, temperature and flow from turn System Automatic Hydrological Information (SAIH). Both programs were implemented by the Administration in the different Water Boards and to undertakings for current basin, in which the author participated development of this thesis. As for the study area has proceeded at its option considering the possible areas of midmountain in the presence of snow outside hydrological meaningful and they were lithology consisting of permeable outcrops that did not prevent infiltration into the ground and forming aquifers of some significance. We were interested discretion in the Tagus basin, therefore the strategic nature of it, as currently supplying surplus to other basins deficit- as the representative value of its climate and terrain conditions in relation to other peninsular river basins . To do this we started from the headwaters identified by the ERHIN program for its implementation snow interest to the ASTER model and Ground Water Bodies MASb (before UUHH Hydrogeological Units) defined in hydrological plans. The intersection in the territory of both criteria led eventually to the Alto Tajo, in which both requirements are met. The section was finalized in the period between the headwaters of the Tagus and Guadiela rivers and reservoirs end Entrepeñas and Buendia respectively checking points for calibration performed in ASTER modeling. Much of it runs on carbonate rocks (limestones and dolomites of Jurassic and Cretaceous) related MASb of Tajuña -Montes Universal, Molina de Aragón and Sigüenza-Maranchón. The daily values of water reserves in the form of snow, evapotranspiration and flow from melting were obtained from the results of this model, proceeding to the calculation of infiltration water balance during the study period considered, taking into account values of precipitation, evapotranspiration and input flow. This has required the prior examination of the hydrogeological conditions of your required in order to know the possible underground interconnections that could alter the balance between the intervening variables aforementioned area. For this we have carried out the collection and analysis of hydrogeological information relevant documentation Tagus river management plans (Hydrological Plan Tajo Basin RD 1664/1998 and the current Hydrological Plan of the Spanish part of the River Basin Tagus RD 270/2014) and previous studies by the basin organization and the Geological Survey of Spain (IGME) mainly. Regarding the MASb Tajuña- Montes Universal - whose length exceeds the area selected - these studies consider its geological structure and lithology distribution with waterproof collations that act as barriers, dividing it into subunits and identifying areas draining their respective aquifers. It has also considered the documentation and previous studies of the National Hydrological Plan on shared among different geographical areas management plans Hydrogeological Units. We conclude that river dividing the headers are substantially coincident or covering Subunits southern Universal Montes, Priego Cifuentes, Zaorejas and northern Universal Mounts, which drain into the Tagus / Guadiela (either directly or through tributaries such as Gallo, Ablanquejo , whitecaps , Raven ...), MASb Molina de Aragón which drains through the Tajo del Gallo and MASb Sigüenza- Maranchón river that drains into the Tagus using the Ablanquejo . Discarded - except the small exception of spring Cifuentes -hydrogeological connections with other MASb or Subunits so the headwaters of the Tagus and Guadiela be considered as a separate system, where rainfall not evaporated runs on surface or infiltrates and eventually discharged into reservoirs Entrepeñas and Buendia. The daily and cumulative quantification of water balances allowed us to compute the approximate evolution of groundwater reserves from its initial date. Initially balances were performed separately in the headwaters of the Tagus and Guadiela, whose cumulative values showed an increasing trend in the first and decreasing in the second. This situation is balanced when the balance is practiced together in both , appreciating the change in volume of groundwater hydrological evolution commensurate with the cycles of summer / winter and drought periods , keeping their average long / medium term values and putting in shows the existence of underground interconnections between the two basins. The overall balance, adding header Tajuña (which also shares the permeable materials MASb Tajuña -Montes Universal ) did not reveal the existence of new hydrogeological interrelationships that influenced water balances made Tajo / Guadiela, confirming the findings of the hydrogeological studies previously analyzed. We proceeded to confront and validate the results of the evolution of groundwater reserves by the following alternative procedures: - Calculate the parameters drain depletion curve corresponding to the volume of groundwater draining into the Tajo / Guadiela. This has been made from monthly inflows in the reservoirs of Entrepeñas and Buendia during the months of June, July, August and September, whose values match the typical profile of an aquifer discharges. From these has been determined for the first of June each year of the time series considered drainage volume - Determination of base flow by Wallingford method and deduction of drainage volumes. Estimate of annual recharge - Quantification of the annual recharge by the method Sanz Menéndez Pidal of Navascués and Távara. Very approximate values recharge between calculated for the last two mentioned methods were obtained. Concerning groundwater reserves stored follow a similar pattern in all cases, allowing consider valid the results achieved through water balance. Confirmed its robustness, simple correlations were sought between the volume of groundwater reserves (as estimated indicator of the effect of infiltration) and volumes from the melting. The conclusion is that the latter do not have a decisive effect on the annual scale infiltration, recharge and variation in volumes of groundwater, against the weight of other variables (precipitation and evapotranspiration). However found a good multiple correlation between the estimated recharge and effective precipitation (precipitation minus evapotranspiration) and fusion, which allowed quantify the contribution of the latter. Subsequently it has resorted to the selection of the most intense episodes of accumulation / melting in the headwaters of the Tagus and Guadiela. And we proceeded to the comparison between the results obtained by application of the simulation model in the same periods (usually several days) with real data and fictitious temperature data to annul or decrease the presence of snow, appreciating a great sensitivity of the effect of temperature on evapotranspiration and establishing linear correlations between the volumes of melting and increased groundwater reserves again. They confirm the “flattering " effect of water accumulation as snow and subsequent liquefaction of the infiltration of water into the soil and underground storage. Finally various climate scenarios (+1ºC; +3ºC; +1ºC y – 10% precipitation; y 3ºC – 10% precipitation) were established consistent with IPCC projections for mid - to late - century, determined through simulation ASTER corresponding values of melting. The correlation established on an annual scale has allowed to evaluate the effect of decreasing the volume of melt - in different scenarios - on recharge, predicting a decline in low flows and the disappearance of "snow effect" on infiltration and recharge with an increase of 3°C temperature. Given the conditions of representativeness of the chosen area, plausible extension of the above findings to other landlocked headwaters in mid-mountain areas located between 1000 to 2000m and its downstream effects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se presenta una metodología para la caracterización del oleaje, dentro del marco de las nuevas Recomendaciones para Obras Marítimas (ROM 0.0.-00 y ROM 1.0-09), por ser una de las principales acciones que afectan a la estabilidad de las estructuras marítimas. Debido al carácter aleatorio intrínsecamente multivariado de la acción considerada, las tormentas, su caracterización paramétrica se realiza en términos de funciones cópula uniparamétricas. Las variables consideradas son altura de ola significante del pico de la tormenta, el periodo medio asociado y la magnitud, o número de olas, de todo el ciclo de solicitación. Para establecer un patrón teórico de evolución de la tormenta que permita extrapolar las muestras fuera de la región con datos se analizan los modelos teóricos existentes, comprobándose que no reproducen adecuadamente las tormentas constituidas por estados de mar con un peso importante de oleaje swell. Para evitar esta limitación se proponen cuatro modelos teóricos de evolución de tormentas con distintas formas geométricas. El análisis de los modelos existentes y los propuestos pone de relieve que el Modelo Magnitud Equivalente de Tormenta (EMS= Equivalent Magnitude Storm) con la forma triangular es el que mejor adapta las tormentas constituidas por estados de mar típicos del viento. Para tormentas con un mayor grado de desarrollo, el modelo teórico de tormenta EMS con la forma trapezoidal es el adecuado. De las aproximaciones propuestas para establecer el periodo medio de los sucesivos estados de mar del ciclo de solicitación. la propuesta por Martín Soldevilla et al., (2009) es la más versátil y , en general , mejor reproduce la evolución de todo tipo de tormentas. La caracterización de las tormentas se complementa con la altura de ola máxima. Debido a la mayor disponibilidad y longitud temporal de los datos sintéticos frente a las registros, la práctica totalidad de los análisis de extremos se realizan con tormentas sintéticas en las que la distribución de olas individuales es desconocida. Para evitar esta limitación se utilizan modelos teóricos de distribución de olas acordes a las características de cada uno de los estados de mar que conforman la tormenta sintética. Para establecer dichas características se utiliza la curtosis y en función de su valor la altura de ola máxima se determina asumiendo una determinada distribución de olas. Para estados de mar lineales la distribución de olas individuales de Rayleigh es la considerada. Para condiciones no lineales de gran ancho de banda el modelo de distribución de olas propuesto por Dawson, (2004) es el utilizado y si es de banda estrecha las predicciones de (Boccotti, (1989), Boccotti et al., (2013)) se compara con las resultantes del modelo de Dawson. La caracterización de la evolución de las tormentas en términos multivariados es aplicada al estudio de la progresión del daño del manto principal de diques en talud, y al rebase de las olas. Ambos aspectos cubren el segundo objetivo de la tesis en el que se propone una nueva formulación para el dimensionamiento de mantos constituidos por bloques cúbicos de hormigón. Para el desarrollo de esta nueva formulación se han utilizado los resultados recogidos en los estudios de estabilidad del manto principal de diques talud realizados en modelo físico a escala reducida en el Centro de Estudios de Puertos y Costas (CEDEX) desde la década de los 80 empleando, en su mayoría, bloques paralelepípedos cúbicos de hormigón. Por este motivo y porque los últimos diques construidos en la costa Española utilizan este tipo de pieza, es por lo que la formulación planteada se centra en este tipo de pieza. Después de un primer análisis de las fórmulas de cálculo y de evolución existentes, se llega a la conclusión de que es necesario realizar un esfuerzo de investigación en este campo, así como ensayos en laboratorio y recogida de datos in-situ con base a desarrollar fórmulas de evolución de daño para mantos constituidos por piezas diferentes a la escollera, que tenga en cuenta las principales variables que condiciona su estabilidad. En esta parte de la tesis se propone un método de análisis de evolución de daño, que incluye el criterio de inicio de avería, adecuada para diques en talud constituidos por bloque cúbicos de hormigón y que considera la incidencia oblicua, el daño acumulado y el rebase. This thesis proposes a methodology to estimate sea waves, one of the main actions affecting the maritime structures stability, complying with (ROM 0.0.-00 & ROM 1.0-09.Due to the multivariate behavior of sea storms, the characterization of the structures of sea storms is done using copula function. The analyzed variables are the significant height wave, mean period and magnitude or number of waves during the storm history. The storm evolution in terms of the significant height wave and the mean period is also studied in other to analyze the progressive failure modes. The existing models of evolution are studied, verifying that these approximations do not adjust accurately for developed waves. To overcome this disadvantage, four evolution models are proposed, with some geometrical shapes associated to fit any development degree. The proposed Equivalent Magnitude Storm model, EMS, generally obtains the best results for any kind of storm (predominant sea, swell or both). The triangle is recommended for typical sea storms whereas the trapezoid shape is much more appropriate for more developed storm conditions.The Martín Soldevilla et al., (2009) approach to estimate the mean period is better than others approaches used.The storm characterization is completed with the maximum wave height of the whole storm history. Due to synthetic historical waves databases are more accessible and longer than recorded database, the extreme analyses are done with synthetic data. For this reason the individual waves’ distribution is not known. For that limitation to be avoided, and depending on the characteristics of every sea states, one theoretical model of waves is choose and used. The kurtosis parameter is used to distinguish between linear and nonlinear sea states. The Rayleigh model is used for the linear sea states. For the nonlinear sea states, Dawson, (2004) approach is used for non-narrow bandwidth storms, comparing the results with the Boccotti, (1989), Boccotti et al., (2013) approach, with is used for narrow bandwidth storms. The multivariate and storm evolution characterization is used to analyze of stone armour damage progression and wave overtopping discharge. Both aspects are included in the second part of the thesis, with a new formula is proposed to design cubes armour layer. The results the stability studies of armour layer, done in the Centre for Harbours and Coastal Studies (CEDEX) laboratory are used for defining a new stability formula. For this reason and because the last biggest breakwater built in Spain using the cube, the damage progression is analyze for this kind of concrete block. Before to analyze the existing formulae, it is concluded that it is necessary more investigation, more tests in laboratory and data gathering in situ to define damage evolution formulae to armour of other kind of pieces and that takes to account the principal variables. This thesis proposed a method to calculate the damage progression including oblique waves, accumulated damage, and overtopping effect. The method also takes account the beginning of the movement of the blocks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El propósito de esta tesis fue estudiar el rendimiento ofensivo de los equipos de balonmano de élite cuando se considera el balonmano como un sistema dinámico complejo no lineal. La perspectiva de análisis dinámica dependiente del tiempo fue adoptada para evaluar el rendimiento de los equipos durante el partido. La muestra general comprendió los 240 partidos jugados en la temporada 2011-2012 de la liga profesional masculina de balonmano de España (Liga ASOBAL). En el análisis posterior solo se consideraron los partidos ajustados (diferencia final de goles ≤ 5; n = 142). El estado del marcador, la localización del partido, el nivel de los oponentes y el periodo de juego fueron incorporados al análisis como variables situacionales. Tres estudios compusieron el núcleo de la tesis. En el primer estudio, analizamos la coordinación entre las series temporales que representan el proceso goleador a lo largo del partido de cada uno de los dos equipos que se enfrentan. Autocorrelaciones, correlaciones cruzadas, doble media móvil y transformada de Hilbert fueron usadas para el análisis. El proceso goleador de los equipos presentó una alta consistencia a lo largo de todos los partidos, así como fuertes modos de coordinación en fase en todos los contextos de juego. Las únicas diferencias se encontraron en relación al periodo de juego. La coordinación en los procesos goleadores de los equipos fue significativamente menor en el 1er y 2º periodo (0–10 min y 10–20 min), mostrando una clara coordinación creciente a medida que el partido avanzaba. Esto sugiere que son los 20 primeros minutos aquellos que rompen los partidos. En el segundo estudio, analizamos los efectos temporales (efecto inmediato, a corto y a medio plazo) de los tiempos muertos en el rendimiento goleador de los equipos. Modelos de regresión lineal múltiple fueron empleados para el análisis. Los resultados mostraron incrementos de 0.59, 1.40 y 1.85 goles para los periodos que comprenden la primera, tercera y quinta posesión de los equipos que pidieron el tiempo muerto. Inversamente, se encontraron efectos significativamente negativos para los equipos rivales, con decrementos de 0.50, 1.43 y 2.05 goles en los mismos periodos respectivamente. La influencia de las variables situacionales solo se registró en ciertos periodos de juego. Finalmente, en el tercer estudio, analizamos los efectos temporales de las exclusiones de los jugadores sobre el rendimiento goleador de los equipos, tanto para los equipos que sufren la exclusión (inferioridad numérica) como para los rivales (superioridad numérica). Se emplearon modelos de regresión lineal múltiple para el análisis. Los resultados mostraron efectos negativos significativos en el número de goles marcados por los equipos con un jugador menos, con decrementos de 0.25, 0.40, 0.61, 0.62 y 0.57 goles para los periodos que comprenden el primer, segundo, tercer, cuarto y quinto minutos previos y posteriores a la exclusión. Para los rivales, los resultados mostraron efectos positivos significativos, con incrementos de la misma magnitud en los mismos periodos. Esta tendencia no se vio afectada por el estado del marcador, localización del partido, nivel de los oponentes o periodo de juego. Los incrementos goleadores fueron menores de lo que se podría esperar de una superioridad numérica de 2 minutos. Diferentes teorías psicológicas como la paralización ante situaciones de presión donde se espera un gran rendimiento pueden ayudar a explicar este hecho. Los últimos capítulos de la tesis enumeran las conclusiones principales y presentan diferentes aplicaciones prácticas que surgen de los tres estudios. Por último, se presentan las limitaciones y futuras líneas de investigación. ABSTRACT The purpose of this thesis was to investigate the offensive performance of elite handball teams when considering handball as a complex non-linear dynamical system. The time-dependent dynamic approach was adopted to assess teams’ performance during the game. The overall sample comprised the 240 games played in the season 2011-2012 of men’s Spanish Professional Handball League (ASOBAL League). In the subsequent analyses, only close games (final goal-difference ≤ 5; n = 142) were considered. Match status, game location, quality of opposition, and game period situational variables were incorporated into the analysis. Three studies composed the core of the thesis. In the first study, we analyzed the game-scoring coordination between the time series representing the scoring processes of the two opposing teams throughout the game. Autocorrelation, cross-correlation, double moving average, and Hilbert transform were used for analysis. The scoring processes of the teams presented a high consistency across all the games as well as strong in-phase modes of coordination in all the game contexts. The only differences were found when controlling for the game period. The coordination in the scoring processes of the teams was significantly lower for the 1st and 2nd period (0–10 min and 10–20 min), showing a clear increasing coordination behavior as the game progressed. This suggests that the first 20 minutes are those that break the game-scoring. In the second study, we analyzed the temporal effects (immediate effect, short-term effect, and medium-term effect) of team timeouts on teams’ scoring performance. Multiple linear regression models were used for the analysis. The results showed increments of 0.59, 1.40 and 1.85 goals for the periods within the first, third and fifth timeout ball possessions for the teams that requested the timeout. Conversely, significant negative effects on goals scored were found for the opponent teams, with decrements of 0.59, 1.43 and 2.04 goals for the same periods, respectively. The influence of situational variables on the scoring performance was only registered in certain game periods. Finally, in the third study, we analyzed the players’ exclusions temporal effects on teams’ scoring performance, for the teams that suffer the exclusion (numerical inferiority) and for the opponents (numerical superiority). Multiple linear regression models were used for the analysis. The results showed significant negative effects on the number of goals scored for the teams with one less player, with decrements of 0.25, 0.40, 0.61, 0.62, and 0.57 goals for the periods within the previous and post one, two, three, four and five minutes of play. For the opponent teams, the results showed positive effects, with increments of the same magnitude in the same game periods. This trend was not affected by match status, game location, quality of opposition, or game period. The scoring increments were smaller than might be expected from a 2-minute numerical playing superiority. Psychological theories such as choking under pressure situations where good performance is expected could contribute to explain this finding. The final chapters of the thesis enumerate the main conclusions and underline the main practical applications that arise from the three studies. Lastly, limitations and future research directions are described.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Siguiendo la orientación seguida por la industria aeronáutica de los Estados Unidos en las últimas décadas muchas industrias paralelas han venido a considerar la Operación y Mantenimiento (O&M) como uno de los aspectos más relevantes a la hora de conseguir alcanzar sus objetivos organizativos. La política a seguir en la fase mantenimiento se reconoce como algo fundamental para conseguir los niveles de eficacia operativa precisos, en particular la disponibilidad. La importancia que toman los costes acumulativos incurridos en el periodo de O&M en el total de los acumulados en el ciclo de vida es un hecho cada vez más reconocido. Este concepto ha sido muy analizado y comentado, y comienzan a surgir y a estar en vigor numerosas regulaciones sobre el tema. El coste del ciclo de vida (LCC) se usa cada vez más como uno de los criterios principales a la hora de diseñar o comprar, y así se requiere a los suministradores que aporten soluciones garantizando un bajo coste a lo largo del ciclo vital y que, a la par, mantengan los niveles de servicio requeridos, por unos atributos medibles como son la disponibilidad o la puntualidad. Esta dualidad supone un verdadero reto para los diseñadores cuando afrontan nuevos desarrollos: diseñar para lograr un elevado nivel de servicio a la par que manteniendo un coste bajo en la totalidad del ciclo de vida del nuevo diseño. Hoy en día es indispensable proceder al diseño de los productos y soluciones de forma que sean confiables, fáciles de parametrizar, de configurar y operar, y que además posean las mejores prestaciones para minimizar los esfuerzos para su mantenimiento, renovaciones y eliminación al fin de su vida útil. La política de mantenimiento, tal como se indica anteriormente, ya no es por tanto la preocupación del último momento, sino algo que se debe definir conjuntamente con el diseño, con la perspectiva integrada del soporte logístico preciso. En numerosas industrias las decisiones que se toman sobre el diseño influencian sobremanera los costes futuros del mantenimiento y, particularmente en estos casos, el análisis integral del coste del ciclo de vida se revela como una poderosa herramienta que habilita la toma de las decisiones críticas. Por desgracia el estado del arte de los análisis LCC en el campo ferroviario es casi nulo en comparación con la industria aeronáutica de defensa, o incluso con la tecnología aplicada a la construcción de carreteras. Un enfoque profesional sobre la optimización de los costes y la disponibilidad del sistema ferroviario global es algo inexistente hoy día. Un análisis sistemático de los costes e impactos sobre la disponibilidad a largo plazo es excepcional en las fases de diseño, incluso para los más sencillos componentes de señalización. Más aún, en el mercado de señalización ferroviaria el mantenimiento es el gran paradigma. Las líneas deben mantenerse en servicio comercial bajo cualquier circunstancia, llevando al mínimo cualquier perturbación y por supuesto preservando la seguridad que la sociedad demanda a los sistemas de transporte públicos de masas. Es por ello que la tendencia cada vez mayor es la de comparar, en el momento de la toma de decisión sobre la inversión, las distintas alternativas posibles para elegir la que garantice el menor coste esperable a lo largo del ciclo de vida exigible. El sector ferroviario, como industria que requiere elevadas inversiones de capital en soluciones de larga permanencia, requiere un enfoque que considere el coste del ciclo de vida. Para la infraestructura ferroviaria y la propia vía el ciclo de vida considerado tradicionalmente para la inversión inicial incluyendo el mantenimiento y algunas renovaciones parciales es de 75 a 100 años, para el material rodante son 30 a 35 años con una renovación significativa hacia la mitad del periodo y para los sistemas de señalización se suelen adoptar entre 25 y 30 años. Dados estos elevados plazos el coste debe ser evaluado para cada uno de los elementos constitutivos, considerando no solo los costes de adquisición, sino también a los que conducen las distintas alternativas de diseño y estrategias de mantenimiento, de forma que se minimicen los costes totales acumulados a lo largo del plazo vital sin perder de vista preservar la función deseada, la explotación comercial segura. Concebir las líneas y su mantenimiento bajo el prisma del concepto del coste del ciclo de vida LCC está revelándose como algo imperativo ya que garantiza que las decisiones sobre inversiones/explotación/mantenimiento sean las más efectivas en términos de coste para la sociedad. Pero por desgracia es muy raro encontrar en el sector ferroviario análisis LCC debidamente documentados. Todos los tecnólogos prefieren aportar argumentos de ventas, bonitas transparencias y folletos, entre ellos algunos detalles de LCC o reflexiones dialécticas al respecto, más que permitir obtener clara y francamente sus costes de adquisición de productos incluyendo los de ingeniería e instalación. Igual o similar opacidad hay al respecto de los costes de su mantenimiento (considerando los repuestos y las expectativas de evolución o roadmap del producto). A pesar de reconocerse el hecho de que las decisiones relativas al diseño y a las estrategias de mantenimiento deben apoyarse en análisis sobre los costes y la efectividad asociada debidamente evaluada, en la mayor parte de las veces la carencia de datos imposibilita la realización de estos estudios y se toman las decisiones por proximidad a otros casos similares o guiados por el consejo de una parte sesgada del mercado. Esta tesis demuestra, partiendo de la aplicación de la parte 3.3 de la norma internacional UNE-EN 60300:2004 “Cálculo del Coste del Ciclo de Vida”, que el sistema de señalización que se debe considerar a la hora de definir una nueva línea de Metro típica ha de ser la tecnología de control de tren basada en las telecomunicaciones (CBTC) aplicada en su modo de operación sin conductor (UTO), puesto que su coste de ciclo de vida (LCC) resulta ser sensiblemente inferior al del sistema tradicional de protección y operación automática de tren (ATP/ATO) más avanzado que puede ser usado como alternativa tecnológica, el distancia objetivo. El trabajo es netamente innovador, pues en el estado del arte documental sobre la materia, que se ha analizado en gran profundidad, tal y como demuestra la bibliografía reseñada, no consta ningún análisis de selección de alternativas de características similares hasta la fecha. Aunque se habla de manera extensiva en los foros y revistas ferroviarias sobre el tema de la rentabilidad que se obtiene por la selección del sistema CBTC como sistema de protección de tren sin embargo éste es un aspecto que nadie ha demostrado de manera analítica hasta el trabajo presente. La Tesis en sí misma es un trabajo original, pues contiene a lo largo de toda ella y en sus anejos, una descripción completa, y adecuadamente comprensible por todo tipo de lector, sobre el estado del arte de los sistemas de automatización ferroviaria. No existe actualmente en lengua castellana, inglesa, francesa o alemana un trabajo de alcance similar. La Tesis se estructura debidamente, proporcionando un hilo documental que permite incluso a los lectores profanos adquirir los conocimientos precisos para poder valorar de manera adecuada el análisis de alternativas que se plantea y su resultado, que resulta coincidente con la hipótesis formulada al inicio de la redacción de la Tesis. Se indican como colofón otras posibles futuras líneas de investigación que se han identificado. Los anejos a la Tesis la complementan con información adicional procesada durante su redacción: • Las tablas de los cálculos del modelo de costes de cada alternativa tecnológica analizada • La visión general del universo de los sistemas de conducción automática de metros globalmente conocidos bajo el acrónimo de CBTC (Communications-Based Train Control), con el detalle actual del mercado de este tipo de soluciones: qué Compañías fabrican, en base a qué solución tecnológica de transmisión, dónde los comercializan y qué entes ferroviarios los utilizan. • Las condiciones a tener en cuenta de cara a decidir la implantación de un sistema CBTC UTO. • El estudio en detalle del caso de reseñalización del Metro de Nueva York describiendo los métodos que se siguieron para elegir las compañías que intervinieron en su realización y lograr la interoperabilidad entre las mismas. • El estado del arte de la definición de estándares y actividades para la interoperabilidad en Europa y Estados Unidos (Proyecto Modurban y Normas del IEEC).