864 resultados para etymology of design
Resumo:
Durante los últimos años, el imparable crecimiento de fuentes de datos biomédicas, propiciado por el desarrollo de técnicas de generación de datos masivos (principalmente en el campo de la genómica) y la expansión de tecnologías para la comunicación y compartición de información ha propiciado que la investigación biomédica haya pasado a basarse de forma casi exclusiva en el análisis distribuido de información y en la búsqueda de relaciones entre diferentes fuentes de datos. Esto resulta una tarea compleja debido a la heterogeneidad entre las fuentes de datos empleadas (ya sea por el uso de diferentes formatos, tecnologías, o modelizaciones de dominios). Existen trabajos que tienen como objetivo la homogeneización de estas con el fin de conseguir que la información se muestre de forma integrada, como si fuera una única base de datos. Sin embargo no existe ningún trabajo que automatice de forma completa este proceso de integración semántica. Existen dos enfoques principales para dar solución al problema de integración de fuentes heterogéneas de datos: Centralizado y Distribuido. Ambos enfoques requieren de una traducción de datos de un modelo a otro. Para realizar esta tarea se emplean formalizaciones de las relaciones semánticas entre los modelos subyacentes y el modelo central. Estas formalizaciones se denominan comúnmente anotaciones. Las anotaciones de bases de datos, en el contexto de la integración semántica de la información, consisten en definir relaciones entre términos de igual significado, para posibilitar la traducción automática de la información. Dependiendo del problema en el que se esté trabajando, estas relaciones serán entre conceptos individuales o entre conjuntos enteros de conceptos (vistas). El trabajo aquí expuesto se centra en estas últimas. El proyecto europeo p-medicine (FP7-ICT-2009-270089) se basa en el enfoque centralizado y hace uso de anotaciones basadas en vistas y cuyas bases de datos están modeladas en RDF. Los datos extraídos de las diferentes fuentes son traducidos e integrados en un Data Warehouse. Dentro de la plataforma de p-medicine, el Grupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid, en el cuál realicé mi trabajo, proporciona una herramienta para la generación de las necesarias anotaciones de las bases de datos RDF. Esta herramienta, denominada Ontology Annotator ofrece la posibilidad de generar de manera manual anotaciones basadas en vistas. Sin embargo, aunque esta herramienta muestra las fuentes de datos a anotar de manera gráfica, la gran mayoría de usuarios encuentran difícil el manejo de la herramienta , y pierden demasiado tiempo en el proceso de anotación. Es por ello que surge la necesidad de desarrollar una herramienta más avanzada, que sea capaz de asistir al usuario en el proceso de anotar bases de datos en p-medicine. El objetivo es automatizar los procesos más complejos de la anotación y presentar de forma natural y entendible la información relativa a las anotaciones de bases de datos RDF. Esta herramienta ha sido denominada Ontology Annotator Assistant, y el trabajo aquí expuesto describe el proceso de diseño y desarrollo, así como algunos algoritmos innovadores que han sido creados por el autor del trabajo para su correcto funcionamiento. Esta herramienta ofrece funcionalidades no existentes previamente en ninguna otra herramienta del área de la anotación automática e integración semántica de bases de datos. ---ABSTRACT---Over the last years, the unstoppable growth of biomedical data sources, mainly thanks to the development of massive data generation techniques (specially in the genomics field) and the rise of the communication and information sharing technologies, lead to the fact that biomedical research has come to rely almost exclusively on the analysis of distributed information and in finding relationships between different data sources. This is a complex task due to the heterogeneity of the sources used (either by the use of different formats, technologies or domain modeling). There are some research proyects that aim homogenization of these sources in order to retrieve information in an integrated way, as if it were a single database. However there is still now work to automate completely this process of semantic integration. There are two main approaches with the purpouse of integrating heterogeneous data sources: Centralized and Distributed. Both approches involve making translation from one model to another. To perform this task there is a need of using formalization of the semantic relationships between the underlying models and the main model. These formalizations are also calles annotations. In the context of semantic integration of the information, data base annotations consist on defining relations between concepts or words with the same meaning, so the automatic translation can be performed. Depending on the task, the ralationships can be between individuals or between whole sets of concepts (views). This paper focuses on the latter. The European project p-medicine (FP7-ICT-2009-270089) is based on the centralized approach. It uses view based annotations and RDF modeled databases. The data retireved from different data sources is translated and joined into a Data Warehouse. Within the p-medicine platform, the Biomedical Informatics Group (GIB) of the Polytechnic University of Madrid, in which I worked, provides a software to create annotations for the RDF sources. This tool, called Ontology Annotator, is used to create annotations manually. However, although Ontology Annotator displays the data sources graphically, most of the users find it difficult to use this software, thus they spend too much time to complete the task. For this reason there is a need to develop a more advanced tool, which would be able to help the user in the task of annotating p-medicine databases. The aim is automating the most complex processes of the annotation and display the information clearly and easy understanding. This software is called Ontology Annotater Assistant and this book describes the process of design and development of it. as well as some innovative algorithms that were designed by the author of the work. This tool provides features that no other software in the field of automatic annotation can provide.
Resumo:
Resumen El Diseño, que apenas está considerado en las políticas de desarrollo, por su parte tampoco ha prestado la adecuada atención a los aspectos de justicia y de desarrollo global. Encontramos los antecedentes del Diseño para el Desarrollo en la “transferencia de tecnología y en la imitación”; en las “tecnologías apropiadas” de los años 70; en la moda de hacer negocios para la “base de la pirámide (BoP)”; más recientemente en el concepto de “innovación apropiada”; y últimamente en el “enfoque de las capacidades”, que engloba cuestiones sobre justicia, igualdad y desarrollo. En este artículo de revisión se realiza una aproximación a la situación actual del Diseño para el Desarrollo, incluyendo productos e iniciativas empresariales, académicas e investigadoras. Para ello, se ha realizado una revisión en buscadores generalistas y en publicaciones especializadas, accesibles desde la Universidad Politécnica de Madrid. Los resultados obtenidos abarcan desde productos comerciales, repositorios en línea de tecnologías de desarrollo, documentación abierta para el diseño/adaptación de productos para el desarrollo, conferencias, revistas, grupos de investigación, iniciativas emprendedoras, etc. Se trata de un tema que no tiene una univoca expresión y que está siendo tratado en muchas áreas, tanto de las ciencias sociales, como técnicas y sanitarias. Abstract The design, which is hardly considered in development policies, has not paid adequate attention to justice and global development issues. The antecedents of Design for Development are found in the "technology transfer and imitation"; in "appropriate technologies" of the 70s; in the fashion of doing business for the "base of the pyramid (BoP)"; more recently in the concept of "appropriate innovation"; and lately in the "capabilities approach" which includes questions about justice, equality and development. In this article review is performed an approach to the current situation of Design for Development including: products, business models and academic and research perspectives. In order to achieve it, the review has been conducted through search engines in generic and specialized publications, accessible from the Polytechnic University of Madrid. The results obtained include from commercial products, online repository development technologies, open documentation for design / adaptation of products for development, to conferences, journals, research groups, entrepreneurial initiatives, etc. This is a topic that has no unambiguous expression and that is being addressed in many areas, as in the social sciences and technical and health sciences. Resumo O projeto, que dificilmente pode ser considerada nas políticas de desenvolvimento, enquanto isso não prestou a atenção suficiente às questões da justiça e do desenvolvimento global. Encontramos a história do Projeto para o Desenvolvimento na "transferência de tecnologia e na imitação"; em "tecnologias apropriadas" dos anos 70; na forma de fazer negócios para a "base da pirâmide (BoP)"; mais recentemente, o conceito de "inovação apropriado"; e, ultimamente, a "abordagem de capacidades", que inclui perguntas sobre justiça, igualdade e desenvolvimento. Neste artigo de revisão existe uma abordagem para a situação atual do projeto de desenvolvimento, incluindo produtos e iniciativas empresariais, acadêmicos e investigadoras. Para isso, realizamos uma revisão nos motores de busca gerais e publicações especializadas, acessível a partir da Universidade Politécnica de Madrid. Os resultados variam de produtos comerciais tecnologias de desenvolvimento repositório on-line, documentação aberta para o projeto / adaptação de produtos para o desenvolvimento, conferências, revistas, grupos de pesquisa, iniciativas empresariais, etc. Este é um tema que não tem um só significado e que esta sendo tratado em muitas áreas, tanto nas ciências sociais, como técnicas e sanitarias.
Resumo:
El objetivo de este Proyecto Final de Carrera es la realización de un ensayo de fiabilidad de componentes electrónicos, más concretamente de Minimódulos de Silicio, con el fin de estudiar su comportamiento a lo largo del tiempo de vida. Debido a la larga duración de los Minimódulos de Silicio , un ensayo de este tipo podría durar años, por lo que es necesario realizar un ensayo acelerado que acorte significativamente el tiempo del experimento, para ello, han de someterse a esfuerzos mayores que en condiciones normales de funcionamiento. A día de hoy, los Minimódulos de silicio, que conocemos como placas solares fotovoltaicas, se usan en infinidad de dispositivos debido a las múltiples ventajas que conllevan. La principal ventaja es poder llevar electricidad a cualquier parte del planeta sin necesidad de tener que hacer unas elevadas inversiones. Esta electricidad proviene de una fuente de energía inagotable y nada contaminante, con lo que ayudamos a mantener el equilibrio del planeta. La mayoría de las veces estas placas solares fotovoltaicas se usan en el exterior, soportando cambios de temperatura y de humedad elevados, de ahí, la importancia de realizar ensayos de fiabilidad, que muestren sus posibles causas de fallo, los efectos que producen estos fallos y los aspectos de diseño, fabricación y mantenimiento que puedan afectarles. Los Minimódulos de silicio utilizados en este proyecto son el modelo MC-SP0.8-NF-GCS de la empresa fabricante Multicomp. Para realizar el Proyecto hubiéramos necesitado una cámara climática que simulara unas condiciones ambientales determinadas, pero debido a la dificultad de iluminar el módulo dentro de la cámara climática hemos desarrollado un nuevo sistema de ensayos acelerados en temperatura. El nuevo sistema de ensayos acelerados consiste en: •Colocar los módulos fotovoltaicos en el laboratorio con un foco de 500W que irradia lo equivalente al sol. •Los tres módulos trabajarán a tres temperaturas diferentes para simular condiciones ambientales distintas, concretamente a 60°C, 72°C y 84°C. •Mediante un sistema automático de medida diseñado en LabVIEW, de manera simultánea tomará medidas de tensión en las tres placas y estudiaremos el grado degradación en cada placa. Se analizaran los resultados obtenido de cada una de las medidas y se realizará un estudio de fiabilidad y del proceso de degradación sufrido por los Minimódulos de silicio. Este PFC se puede dividir en las siguientes fases de trabajo siendo el ensayo la parte más larga en el tiempo: •Búsqueda de bibliografía documentación y normas aplicables. •Familiarización con los equipos y software, estudiando el manejo del software que viene con el Multímetro Keithley 2601 y el programa LabVIEW. •Desarrollo del hardware y sistemas necesarios para la realización del ensayo. •Montaje del ensayo •Realización del ensayo. •Análisis de resultados. ABSTRACT. The objective of this Final Project is conducting a test reliability of electronic components, more specifically Silicon minimodules, in order to study their behavior throughout the life span. Due to the long duration of Silicon minimodules a test like this could take years, so it is necessary to perform an accelerated significantly shorten the time of the experiment, testing for it, should be subjected to greater efforts than in normal operating. Today, the mini-modules, silicon is known as photovoltaic solar panels are used in a multitude of devices due to the many advantages they bring. The main advantage is to bring electricity to anywhere in the world without having to make high investments. This electricity comes from an inexhaustible source of energy and no pollution, thus helping to maintain the balance of the planet. Most of the time these solar photovoltaic panels are used on the outside, enduring changes in temperature and high humidity, hence, the importance of reliability testing, showing the possible causes of failure, the effects produced by these faults and aspects of design, manufacturing and maintenance that may affect them. The silicon mini-modules used in this project are the MC-SP0.8-NF-GCS model Multicomp manufacturing company. To realize the project we would have needed a climatic chamber to simulate specific environmental conditions, but due to the difficulty of illuminating the module in the climate chamber we have developed a new system of accelerated tests in temperature. The new system is accelerated tests: •Place the PV modules in the laboratory with a focus on the equivalent 500W radiating sun. •The three modules work at three different temperatures to simulate different environmental conditions, namely at 60 °C, 72 °C and 84 °C. •Automatic measurement system designed in LabVIEW, simultaneous voltage measurements taken at the three plates and study the degradation degree in each plate. The results obtained from each of the measurements and a feasibility study and degradation suffered by the silicon is performed minimodules were analyzed. This PFC can be divided into the following phases of the test work the longest part being overtime: •Literature search and documentation standards. •Familiarization with equipment and software, studying management software that comes with the Keithley 2601 multimeter and the LabVIEW program. •Development of hardware and systems necessary for the conduct of the trial. •Experiment setup •Carrying out the experiment. •Analysis of results.
Resumo:
El objetivo de este Proyecto Final de Carrera es la realización de un ensayo de fiabilidad de componentes electrónicos, más concretamente de diodos LED, con el fin de estudiar su comportamiento a lo largo del tiempo de vida. Debido a la larga duración de los LEDs, un ensayo de este tipo podría durar años, por lo que es necesario realizar un ensayo acelerado que acorte significativamente el tiempo del experimento, para ello, han de someterse a esfuerzos mayores que en condiciones normales de funcionamiento. En la actualidad, los LEDs son usados en infinidad de aplicaciones, debido a sus múltiples ventajas respecto a otros sistemas de iluminación o señalización convencionales. En numerosos casos se utilizan en el exterior, soportando cambios de temperaturas y de humedad elevados, de ahí, la importancia de realizar ensayos de fiabilidad, que muestren sus posibles causas de fallo, los efectos que producen estos fallos y los aspectos de diseño, fabricación y mantenimiento que puedan afectarles. Como consecuencia del envejecimiento de los LEDs, pueden mostrar una reducción en el flujo luminoso y un empeoramiento de las propiedades cromáticas. Los LEDs utilizados en este Proyecto son de AlInGaP, rojos, de alta luminosidad. Para acelerar el ensayo, se utilizará una cámara climática que simule unas condiciones ambientales determinadas, en concreto, 85º C y 85% HR. Además, se realiza una monitorización periódica, siendo necesaria la utilización de un sistema automático de medida diseñado en LabVIEW, el cual, de manera simultánea realizará medidas y gestionará la inyección de corriente a los LEDs mientras se encuentren en el interior de la cámara climática. Se fabrican dos placas con 4 tiras de LEDs para inyectar un nivel de corriente diferente en cada una y así poder comparar la degradación en función de este parámetro. Fuera de la cámara climática se van a medir las curvas características de tensióncorriente de cada LED a una temperatura ambiente constante, fijada por un módulo Peltier. También se realizarán medidas de potencia luminosa y de espectro de emisión. Se analizarán los resultados obtenidos de cada una de las medidas y se realizará un estudio de fiabilidad y del proceso de degradación sufrido por los LEDs. Este PFC se puede dividir en las siguientes fases de trabajo, siendo el ensayo la parte más larga en el tiempo: · Búsqueda de bibliografía, documentación y normas aplicables. · Familiarización con los equipos y software, estudiando el manejo y funcionamiento de la cámara climática temperatura-humedad y el software a aplicar (LabVIEW y software del espectrómetro). · Desarrollo del hardware y sistemas necesarios para la realización del ensayo. · Realización del ensayo. · Análisis de resultados. ABSTRACT. The objective of this end of degree project is conducting an essay reliability of electronic components, more concretely LEDs, in order to study their behavior throughout its lifespan. Due to the long duration of the LEDs, a essay of this type could last for years, so it is necessary to perform an accelerated essay which significantly shorten the time of the experiment, testing should be subjected to greater efforts than in normal operation. Today, LEDs are used in many applications due to its many advantages over other conventional lighting systems or signaling. In numerous cases are used on the outside, enduring high changes in temperature and humidity, hence the importance of reliability essays, showing the possible causes of failure, the effects produced by these failures and aspects of design, manufacturing and maintenance that may affect them. As a result of the ageing of the LEDs, they may show a reduction in light output and a worsening of the chromatic properties. The LEDs used in this project are AlInGaP, red and high brightness. To speed up the essay will be used a climatic chamber to simulate specific environmental conditions, specifically 85 ° C and 85 % RH. In addition, is pe rformed a periodic monitoring using an automatic measurement system designed in LabVIEW , which , simultaneously will performed measurements and will manage the injection current to the LEDs while are inside of the climatic chamber. 4 strips of LEDs are created to inject a different level of current in each, so can compare the degradation in terms of this parameter. Out of the climatic chamber are obtained the characteristic curves of voltage-current of each LED at a constant room temperature, set by a Peltier module. Also, measures light power and the emitted spectrum. The results of each of the measures and a reliability study and degradation suffered by the LEDs will be discussed. This PFC can be divided into the following steps, the essay being the longest part: • Search bibliography, documentation and standards. • Familiarization with equipment and software, studying the management and the operation of the temperature-humidity environmental chamber and applying software (LabVIEW applications and spectrometer software). • Development of hardware and systems necessary for the conduct of the essay. • Carrying out the essay. • Analysis of results.
Resumo:
En las últimas dos décadas, los productores han plantado olivares en seto para lograr la mecanización de la poda y en especial de la cosecha, reducir los costes de mano de obra y permitir intervenciones de manejo rápidas y oportunas. Los olivares se desarrollaron en ausencia del conocimiento científico, sobre el diseño óptimo de la estructura de la copa, necesario para incrementar la producción y calidad del aceite. En contraste, con los árboles muy espaciados y distribuidos uniformemente de las plantaciones tradicionales, en el olivar en seto hay una marcada variabilidad espacial y temporal de la radiación disponible en función del diseño de la plantación. Así, conocer la respuesta fisiológica y productiva del olivo a la radiación resulta fundamental en el olivar en seto. La orientación de las filas y el ancho de calle son aspectos que se deciden en el diseño de las plantaciones en seto. Ambos aspectos modifican la radiación interceptada por la canopia y, por lo tanto, pueden incidir en la productividad y calidad del aceite. Una vez realizada la plantación no pueden ser modificados, y así las ventajas o desventajas permanecerán fijas durante toda la vida productiva del olivar. A pesar de esto, el impacto de la orientación de las filas y el ancho de calle han recibido poca atención en olivos y en la mayoría de los frutales conducidos en seto. Por todo ello, los objetivos principales de esta tesis fueron, (i) evaluar el efecto de la orientación del seto y del ancho de calle, sobre la productividad y calidad del aceite, (ii) evaluar un modelo que estime la radiación dentro de la canopia. Este modelo permitirá cuantificar las relaciones entre la radiación y los componentes del rendimiento y calidad del aceite de olivares en setos con un amplio rango de estructuras y (iii) conocer la variabilidad en las características de las hojas (morfológicas y fisiológicas) y de los tejidos del fruto (tamaño y composición) en diferentes posiciones de la copa de los setos. Para ello, se dispuso de 3 ensayos de olivar en seto (cv. Arbequina) implantados en 2008 en el municipio de La Puebla de Montalbán, Toledo. La primera cosecha fue en 2010 y a partir del 2012 los setos formaron una copa continua. A partir de ese año, los setos se mantuvieron mediante poda, con similar ancho (~1 m) y altura (~2,5 m), acordes a las dimensiones de la cosechadora vendimiadora. En los años 2012 y 2013 se estudió en profundidad la respuesta de las plantas de estos ensayos. En el ensayo 1, los setos fueron plantados con cuatro orientaciones de filas: N–S, NE–SO, NO–SE y E–O y el mismo ancho de calle (4 m). En los otros dos ensayos, los setos fueron plantados con tres anchos de calle (5,0, 4,0 y 2,5 m), y con filas orientadas N–S (ensayo 2) y E–O (ensayo 3). La respuesta de la orientación de las filas se evaluó a nivel de seto y de estratos del seto (alturas y caras), a través de mediciones del crecimiento de brotes, componentes reproductivos, características y temperatura del fruto, estado hídrico del suelo y de las plantas, fotosíntesis neta de las hojas y contenido de ácidos grasos. Los setos orientados NE–SO (2,7 t/ha) lograron la mayor producción de aceite, que fue significativamente más alta que la de los setos E–O (2,3 t/ha). La producción de aceite de los setos E–O no se diferenció estadísticamente de los setos N–S (2,5 t/ha). Las diferencias productivas entre orientaciones fueron explicadas por el número de frutos en cosecha, a su vez la variación en el número de frutos estuvo asociada al efecto de la orientación de las filas sobre el número de yemas desarrolladas y el porcentaje de inflorescencias fértiles. Las hojas en las caras iluminadas de los setos NE–SO y N–S presentaron mayor tasa fotosintética a la mañana (~10.0 h) que los setos E–O, en el año 2012, pero no en 2013. La orientación de las filas no tuvo un efecto significativo en el contenido de ácidos grasos de los aceites extraídos, esto ocurrió a pesar de variaciones en la temperatura interna de los frutos (3 °C) y de la radiación (40%) entre las distintas caras de los setos. La orientación del seto afectó significativamente al contenido relativo de agua del suelo, donde setos E–O presentaron valores más altos (12%) que setos N–S durante el verano y otoño. Sin embargo, el potencial hídrico de tallo fue similar entre orientaciones. En los ensayos 2 y 3, se evaluó el efecto que produce, a nivel de seto y de estratos (caras y alturas), reducir el ancho de calle de 5,0 a 4,0 y 2,5 m, en un seto orientado N–S y otro E–O, respectivamente. La relación entre altura/ancho de calle libre aumentó 0,6 a 0,8 y 1,6, al reducir 5,0, 4,0 y 2,5 m el ancho de calle, mientras la longitud de seto y el volumen de copa por hectárea incrementó 100% al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados N–S, la producción de aceite por ha acumulada en 4 campañas, incrementó significativamente un 52 %, al reducir de 5,0 a 2,5 m el ancho de calle. Los setos N–S con calle más estrecha (2,5 m) tuvieron un 19% menos frutos que los setos con calle más ancha (5,0 m) y a su vez el 60% de los mismos se localizaron los estratos altos de la canopia de los setos con calles estrecha en comparación al 40% en setos con calle de 5,0 m. En los estratos más bajos de los setos con calles de 2,5m hubo menor crecimiento de los brotes y los frutos tuvieron menor peso seco, contenido de aceite y madurez, que los frutos en los estratos bajos de los setos a 5,0 m. Los componentes del rendimiento y características de los frutos (agua y madurez) fueron similares entre la caras E y O, independientemente del ancho de calle. En los setos orientados E–O, la producción de aceite por ha acumulada en 4 campañas, no respondió significativamente al ancho de calle, debido a una disminución significativa en el número de frutos y producción de aceite por m de seto, al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados E–O, con calles de 5,0 m, los frutos presentaron similar peso seco, contenido de aceite y agua, en las caras S y N, sin embargo, cuando la calle fue reducida a 2,5, los frutos de la cara S fueron más pesado y maduros que en la cara N. Independientemente del ancho de calle y de la orientación del seto, el aceite presentó mayor contenido de ácidos palmitoleico, palmítico, esteárico y linoleico en los frutos del estrato más alto de la canopia disminuyendo hacia la base. En contraste, el contenido de ácido oleico aumentó desde el estrato más alto hacia la base de los setos. Las diferencias en el contenido de ácidos grasos entre la parte alta y baja de los setos, incrementó al reducir el ancho de calle en los setos N–S, pero no en los E-O. En conclusión, en olivares en seto, reducir el ancho de calle permite incrementar la producción de aceite, en setos orientados N–S, pero no en E–O. Un modelo que estima la cantidad y distribución de la radiación en toda la copa del seto, fue utilizado para estimar la radiación interceptada en distintos estratos del seto. El modelo requiere un valor del coeficiente de extinción (k) para estimar la transmisión de radiación a través de la copa, el cual fue obtenido experimentalmente (k=1,2). Utilizando los datos del ensayo 1, un único modelo lineal relacionó el peso seco y el rendimiento graso de setos con la radiación interceptada por los distintos estratos de setos con cuatro orientaciones de filas. La densidad de frutos fue también relacionada con la radiación, pero más débilmente. En los setos orientados N–S, plantados con tres anchos de calles, (ensayo 2) el contenido de ácidos palmitoleico y linoleico del aceite incrementó linealmente con el incremento de la radiación interceptada, mientras el contenido ácido oleico disminuyó linealmente con el incremento de la radiación. El contenido de ácidos grasos del aceite no estuvo relacionado con la radiación interceptada en setos orientados E–O (Ensayo 3). En los setos N–S y E–O, plantados con anchos de calle de 2,5 m, se estudiaron las interacciones entre la radiación y características de las hojas, número de fruto, tamaño y composición de los frutos a nivel de órgano, tejido y células. Independientemente de la orientación del seto, el área y el contenido de clorofila de las hojas incrementaron significativamente en los estratos más bajos de los setos. Mientras, las hojas de los estratos medios del seto presentaron mayor capacidad fotosintética que en los estratos bajos y alto de los setos. Los estratos del seto que interceptaron más radiación produjeron frutos con mayor tamaño y contenido de aceite en el mesocarpo, sin efectos sobre el tamaño y composición del endocarpo. A nivel celular, los frutos expuestos a mayor nivel de radiación desarrollaron en el mesocarpo células de mayor tamaño en comparación a frutos menos expuestos, mientras el número de células no fue afectado. Adicionalmente, el número y tamaño de las células estuvo relacionado con la composición del mesocarpo en términos de aceite, agua y peso seco menos aceite. Esta tesis, contribuye, desde una perspectiva integral del cultivo del olivo, a cuantificar el impacto de la orientación y ancho de calle sobre la producción y calidad del aceite en olivares conducidos en setos. El análisis y discusión de la relación entre la radiación y los componentes del rendimiento y calidad del aceite, puede ayudar a diseñar plantaciones en seto con dimensiones óptimas para la intercepción de la radiación. ABSTRACT In the last two decades, olive hedgerow system has been established by commercial growers to allow continuous mechanized pruning and especially harvest, reduce costs of manual labour and allow more rapid and timely management interventions. The adoption of hedgerow was done in the absence of adequate scientific knowledge of the impact of this orchard structure and associated mechanization on tree response, yield and quality, after centuries in low-density orchards and open-formed trees. The row orientation and width alley are fundamental aspects in the hedgerow design and have been scarcely studied in olive. Both aspects modify the radiation intercepted by the canopy, and consequently the productivity and oil quality, and once defined in orchard planting cannot be changed, so advantages and disadvantages remain fixed for the lifespan of the orchard. The main objectives of this thesis were to (i) evaluate the impact of the row orientation and width alley on productivity and oil quality by the measurements of profile of the determining processes of shoot growth, fruit temperature, yield components and fruit and oil characteristics on opposite sides of olive hedgerows. Additionally, the effect of row orientation on the plant water status was also evaluated; (ii) evaluate a mathematical model for estimating the radiation within the canopy and quantify the relationships between the radiation estimated and yield components and oil quality in olive hedgerows under wide range of structures and; (iii) determine the variability in the characteristics of the leaves (morphological and physiological) and fruit tissues (size and composition) in different positions of the hedgerows canopy. Three plots of olive hedgerows (cv. Arbequina) planted in 2008 in La Puebla de Montalbán, Toledo were evaluated during the 2012 and 2013 seasons. The hedgerows were maintained by lateral pruning and topping with the same width (1 m) and height (2.5 m) compatible with the intended harvester. In a plot (experiment 1), the hedgerows were planted with the same width alley (4 m) and four row orientations: N–S, NE–SW, NW–SE and E–W. Other two plots (Experiments 2 and 3) separated by approximately 100 m were planted with N–S and E–O oriented rows and three alley widths in each orientation: 5.0, 4.0 and 2.5 m. In the exp. 1, maximum fruit yield were achieved by NE–SW and NW–SW (15.7 t/ha). Of these, NE–SW achieved the highest oil yield (2.7 t/ha). There were no differences in fruit or oil yield between N–S (2.5 t oil/ha) and E–W (2.3 t oil/ha) orientations. Fruit number was the most important component to explain these differences, by previous influence on number of bud developed and percentage of fertile inflorescences. Fruit maturity and oil quality on both sides of the hedgerows were not affected by row orientation. This occurred despite significant variations in the internal fruit temperature, which was closely related to the irradiance received by the canopy and the time of day. Additionally, row orientation significantly affected the relative water content of the soil, where E–W oriented hedgerows showed consistently higher values than N–S during summer-autumn season. The stem water potential at midday, however, was similar between orientations, revealing possible lower water consumption of E–W than N–S oriented hedgerows. In the exp. 2, regardless of row orientation, reduction of row spacing from 5.0 to 4.0 and 2.5 m increases the ratio of canopy depth to free alley width (Al/An) from 0.6 to 0.8 and 1.6, respectively, and ads 25 and 100 % more hedgerow length per ha. In N–S oriented hedgerows, oil production per ha increased significantly by 14 and 52 % in 4.0 m and 2.5 m relative to 5.0 m row spacing, the effect being proportionally less than the increase in hedgerow length per ha. Hedgerows spaced 2.5 m with Al/An = 1.6 produced relatively fewer fruits per unit length than did wider spacings and were preferentially distributed in upper layers. Fruits located at the bottom of the canopy were smaller, with lower oil content and were less mature. In E–W oriented hedgerows, oil production per ha did not respond significantly to row spacing, despite the doubling of row length from the 5.0 to the 2.5 m row spacing. The explanation was found in fewer fruit per unit length of hedgerow and smaller oil content at 2.5 m than 5.0 m row spacing, averaged over the experimental period. In E–W hedgerows spaced at 5.0 m with Al/An = 0.6, the vertical profiles of fruit characteristics (mass, oil and water contents, and maturity) were similar between opposing sides, but at 4.0 m (Al/An= 0.8) and 2.5 m (Al/An=1.6) spacings, fruits on the S side were heavier and more mature than on N side. The oil extracted from fruits harvested at different heights of N–S and E–W oriented hedgerows showed higher palmitoleic, palmitic, stearic and linoleic contents at the canopy top decreasing toward base. The oleic content was reverse, increased from top to base. In N–S hedgerows, vertical gradients increased by reducing the alley width, but not in the E–W oriented hedgerows. The simulation of internal canopy irradiance was related in a single relationship (R2 = 0.63) to the vertical profiles of fruit weight and oil content of olive hedgerows with wide range of structures. The density of fruits was also associated with the irradiance but more weakly (R2 = 0.27), and revealed a more complex response involving changes in the vegetative structure by canopy management (topping) and the effect of radiation on the previous sequence that defines the number of fruits. The vertical profiles of oil quality traits were closely associated to canopy irradiance, but only when the N–S oriented hedgerows were considered. The contents of palmitoleic and linoleic acid in the oil increased linearly when intercepted irradiance increased from 9 to 19 mol PAR/m2. In contrast, oleic content decreased linearly in this irradiance range. Additionally, we advanced knowledge regarding the interactions among irradiance and leaf, fruit number, size and composition at organ-, tissue- and cellular- levels. The irradiance received at different positions in the canopy strongly affected the leaf area and chlorophyll content, and mesocarp size and composition (water and oil), without effects on endocarp size and composition. At the cellular level, light-exposed fruit developed larger mesocarp cells than shaded fruits, but cell number was not affected. Our results indicate that cell number and size are related to mesocarp composition in term of oil, water, and dry weight menus oil, although the specific manner in which they interact remains to be determined. This research contributes from an integral perspective of olive growing to quantify the impact of row orientation and width alley on productivity and oil quality in hedgerows systems. The analysis and discussion of the relationships between radiation and yield components and oil quality can help understand the impact of design olive hedgerows in general and in a wide range of environmental conditions.
Resumo:
En este documento se describe brevemente el funcionamiento de los diversos sistemas de una planta nuclear operada con un reactor de tipo PWR. Más concretamente, el proyecto se centra en una descripción exhaustiva de los sistemas de salvaguardia y seguridad que regulan el funcionamiento de un reactor de tipo EPR, así como la central nuclear que contiene a dicho reactor. El proceso ha consistido en clasificar y resumir los distintos sistemas que operan en dicha planta, estudiando sus características y parámetros de funcionamiento. También se han estudiado los accidentes más comunes que pueden tener lugar en este tipo de centrales nucleares. Tras el análisis y estudio realizado acerca del reactor EPR, se puede concluir que las centrales nucleares que operan con este tipo de reactor experimentan una serie de mejoras en cuanto a la prevención de accidentes, así como una serie de mejoras de diseño en una gran variedad de sistemas y elementos del reactor, como pueden ser la vasija, los SG, etc. ABSTRACT This document gives a brief description of the operation of several systems of a nuclear power plant operating with a PWR reactor. More specifically, the project focuses on a thorough description of the safety and security systems that govern the operation of an EPR reactor and its plant. The process consisted on classify and summarize the different operating systems of this nuclear plant, studying its characteristics and operating parameters. We have also studied the most common accidents that can occur in this type of nuclear power plants. After the analysis and study on the EPR reactor, it can be concluded that nuclear power plants operating with this type of reactor undergo a series of improvements in the prevention of accidents, as well as a number of design improvements in several reactor systems and components, such as the vessel, the SG, etc.
Resumo:
El Cementerio Este de Malmo (1916-1973) ha sido analizado en el ámbito internacional sólo en contadas ocasiones, aunque en este lugar el arquitecto sueco Sigurd Lewerentz (1885-1975) realizó un proyecto experimental a gran escala, rechazando los trazados de cementerios pintorescos que se habían popularizado en Europa en aquella época y proponiendo una disposición más ortogonal, vinculada con el lugar de distintas maneras. Después de que Lewerentz ganase el concurso, el proyecto se desarrolló durante casi sesenta años. El Cementerio Este de Malmo ofrece una lente única a través de la cual se puede examinar la forma en la que se establecieron relaciones entre el proyecto de arquitectura y diversos aspectos del paisaje: con el entorno urbano y diversas circunstancias del entorno social mediante la vegetación como límite, con la topografía a través de la escala y los materiales de construcción, con la tradición organizando plantas, secciones y construcción, con el ámbito internacional a través de los paramentos constructivos, con las técnicas constructivas habituales en Suecia por medio de materiales cotidianos y con los alrededores a través del planteamiento de los detalles. La hipótesis de trabajo plantea que el concepto de límite en la obra de Lewerentz y en el Cementerio Este de Malmo en particular tiene un carácter dual, produciendo simultáneamente separaciones y relaciones con distintos aspectos del lugar y del tiempo. Esta investigación documenta y examina la construcción del Cementerio Este de Malmo apoyándose en planos y escritos originales de distintos archivos, datos recogidos en el proyecto así como en otros cementerios de la época y en análisis previos ya publicados. Proporcionando un estudio detallado de la evolución del enfoque de Lewerentz respecto a la relación entre arquitectura y paisaje, se define un marco en el que la obra de este arquitecto puede entenderse de una manera más completa. Lewerentz mantuvo una postura crítica con algunos modelos de su época, al tiempo que planteó vínculos con aspectos de la vida cotidiana de las personas. Este conjunto de referencias redefine, un conjunto de circunstancias vinculadas con el proyecto, que redefinen el lugar de forma abstracta. En esta doble cualidad del límite se da lugar a un espacio de intersección, entendido como un lugar de convergencia de personas. En estas relaciones, el usuario siempre es el centro, ya sea para crear un pórtico para resguardar, una avenida de árboles para crear un espacio más tranquilo o una ventana simplificada. Esta tesis contribuye a la investigación en el ámbito de la integración del proyecto de arquitectura en el lugar, describiendo una metodología de proyectar, en la que los elementos que sirven para separar espacios, también se emplean para vincularlos a un conjunto seleccionado de referencias a distintas escalas, lugares y tiempos. Este doble proceso que implica la construcción de los límites permite favorecer la proximidad a algunos aspectos del entorno y al mismo tiempo rechazar otros, permitiendo una perspectiva crítica y pudiendo proponer situaciones alternativas. ABSTRACT Malmó Eastern Cemetery (1916-1973) has received little international attention, despite the fact that Swedish architect Sigurd Lewerentz (1885-1975) led a large-scale experimental project, rejecting picturesque cemetery plans, popular in Europe at that time, and developing a more orthogonal layout, which was linked to the site in different ways. After Lewerentz won first prize in the competition to develop Malmó Eastern Cemetery, the project unfolded over a period of nearly sixty years. Malmó Eastern Cemetery project offers a unique lens through which to examine how different relationships were established between the architectural project and various features of the landscape: with the urban environment and various social circumstances using greenery as a boundary; with topography using the scale of construction and materials; with tradition by designing plans, sections and construction; with the international architectural arena by building walls; with common construction methods in Sweden using ordinary materials and with the surroundings by using detail. The hypothesis of this thesis explores the dual nature of the notion of limit in Lewerentz's work, and in Malmó Eastern Cemetery in particular, through the simultaneous creation of separations and connections with various aspects of place and time. This research documents and examines the construction of Malmó Eastern Cemetery by examining original drawings and writings from various archives, field exploration into the project and other cemeteries of the time, and the existing literature. By providing a detailed study of Lewerentz's evolving approach to the relationship between architecture and landscape, this thesis defines a framework in which Lewerentz's work may be understood in a more comprehensive way. Lewerentz was critical of some of the models of his time, although he established different connections with aspects of people's everyday lives. This set of connections defines a particular setting or set of circumstances for the project, which are more of an abstract notion. Within this double role of limits, a space of intersection is generated, which can be understood as a place of convergence for people. In this set of connections, the user is always at the centre of the design. For example, Lewerentz designed a portico that would provide shelter, an avenue of trees to produce a tranquil space of commemoration or a simplified window. This thesis contributes to research in the field of integration of an architectural project in a site, by describing a methodology of design, in which the elements used to subdivide spaces are also used to connect a set of selected references for different scales, locations and times. The dual process involved in building limits encourages proximity to some aspects of the environment, while rejecting others, thereby allowing for a critical perspective and the proposal of alternative situations.
Resumo:
El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.
Resumo:
Este trabajo se enmarca dentro del ámbito de las Ciudades Inteligentes. Una Ciudad Inteligente se puede definir como aquella ciudad que usa las tecnologías de la información y las comunicaciones para hacer que tanto su infraestructura crítica, como sus componentes y servicios públicos ofrecidos sean más interactivos, eficientes y los ciudadanos puedan ser más conscientes de ellos. Se trata de un concepto emergente que presenta una serie de retos de diseño que se deben abordar. Dos retos importantes son la variabilidad del contexto con el tiempo y la incertidumbre en la información del contexto. Una parte fundamental de estos sistemas, y que permite abordar estos retos, son los mecanismos de toma de decisión. Estos mecanismos permiten a los sistemas modificar su comportamiento en función de los cambios que detecten en su contexto, de manera que puedan adaptarse y responder adecuadamente a la situación en cada momento. Este trabajo tiene como objetivo el desarrollo de algoritmos de toma de decisión en el marco de las Ciudades Inteligentes. En particular, se ha diseñado e implementado, utilizando el software MATLAB, un algoritmo de toma de decisión que aborda los retos mencionados y que se puede aplicar en una de las áreas que engloban las Ciudades Inteligentes: los Sistemas Inteligentes de Transporte. Este proyecto se estructura fundamentalmente en dos partes: una parte teórica y una parte práctica. En la parte teórica se trata de proporcionar al lector nociones básicas sobre los conceptos de Ciudad Inteligente y Sistemas Inteligentes de Transporte, así como de la toma de decisión. También se explican los pasos del procedimiento de la toma de decisión y se proporciona un estado del arte de los algoritmos de toma de decisión existentes. Por otro lado, la segunda parte de este proyecto es totalmente original, y en ella el autor propone un algoritmo de toma de decisión para ser aplicado en el ámbito de los Sistemas Inteligentes de Transporte y desarrolla la implementación en MATLAB del algoritmo mencionado. Por último, para demostrar su funcionamiento, se valida el algoritmo en un escenario de aplicación consistente en un sistema inteligente de gestión del tráfico. ABSTRACT. This master thesis is framed under Smart Cities environment. A Smart City can be defined as the use of Information and Communication Technologies to make the critical infrastructure components and services of a city more intelligent, interconnected and efficient and citizens can be also more aware of them. Smart City is a new concept which presents a novel set of design challenges that must be addressed. Two important challenges are the changeable context and the uncertainty of context information. One of the essential parts of Smart Cities, which enables to address these challenges, are decision making mechanisms. Based on the information collected of the context, these systems can be configured to change its behavior whenever certain changes are detected, so that they can adapt themselves and response to the current situation properly. This master thesis is aimed at developing decision making algorithms under Smart Cities framework. In particular, a decision making algorithm which addresses the abovementioned challenges and that can be applied to one of the main categories of Smart Cities, named Intelligent Transportation Systems, has been designed and implemented. To do so, MATLAB software has been used. This project is mainly structured in two parts: a theoretical part and a practical part. In theoretical part, basic ideas about the concept of Smart Cities and Intelligent Transportation Systems are given, as well as the concept of decision making. The steps of the decision making procedure are also explained and a state of the art of existing decision making algorithms is provided. On the other hand, the second part of this project is totally original. In this part, the author propose a decision making algorithm that can be applied to Intelligent Transportation Systems and develops the implementation of the algorithm in MATLAB. Finally, to show the operation of the algorithm, it is validated in an application scenario consisting in a smart traffic management system.
Resumo:
Las transiciones en guía de onda son las estructuras utilizadas en microondas para transferir y adaptar la señal que viaja en un determinado sistema de transmisión (por ejemplo, un cable coaxial) a otro sistema de transmisión o a un sistema radiante (por ejemplo, una antena de bocina). Los dos sistemas de transmisión entre los que la transición adapta la señal pueden ser distintos o del mismo tipo pero con alguna de sus dimensiones diferente. Existen diferentes transiciones de guía de onda que dependiendo de su utilidad son diseñadas y construidas con diferentes secciones: circular, rectangular, elíptica o incluso combinaciones de éstas. No es necesario que la sección de la guía presente una forma geométrica conocida pero los estándares que se van a seguir hacen referencia en concreto a secciones rectangulares y circulares. En el trabajo que aquí se desarrolla se pretende optimizar por medio de simulaciones paramétricas una transición entre cable coaxial con conector tipo K y una guía de onda de sección circular que sigue el estándar presentado por Flann, Millitech y Antarfs para la banda WR34. La transición que va a ser objeto de este estudio se denomina transición tapered o transición conformada. Este tipo de transiciones se caracterizan por variar una de sus dimensiones progresivamente hasta llegar al tamaño definido en el estándar correspondiente. La manera de realizar la optimización de la transición se basará en el estudio del parámetro S11 que presente la estructura a lo largo de la banda de trabajo. Ya que se sigue el estándar WR34 la banda de trabajo que éste comprende va de 21,7 a 33 GHz. Se pretende conseguir que la respuesta del parámetro S11 se encuentre por debajo de -20 dB en la banda de WR34 como resultado del diseño para poder contar de esta manera con una buena adaptación. Finalmente se propondrá un criterio a seguir para optimizar este tipo de transiciones siguiendo el objetivo de mejor adaptación teniendo en cuenta el impacto de cada tramo sobre el rango de frecuencias en el que influye y se presentarán las características finales que presenta la transición bajo estudio. En este documento se introduce de manera breve la utilidad de los transformadores de impedancias lambda cuartos en líneas de transmisión, el estado del arte de las diferentes técnicas para su diseño, y la propuesta de diseño y caracterización objeto del presente trabajo. Posteriormente, se presenta el caso de estudio para el diseño de la transición para ser integrada a una bocina de choke. Luego, se introduce el marco teórico del trabajo presentando algunos ejemplos ilustrativos de tramos de guía de onda rectangular y guía de onda circular, introduciendo adaptadores de λ/4 en simulaciones. A continuación, se explica la implementación del modelo bajo estudio en CST (Computer Simulation Technology) Studio Suite. Finalmente se presenta la discusión de los resultados obtenidos, las conclusiones y líneas futuras de trabajo. ABSTRACT. Waveguide transitions are structures used in microwave in order to transfer and adapt the signal that travels from a certain transmission system (e.g. coaxial cable) to other transmission system or to a radiant system (e.g. horn antenna). Both transmission systems between which the transition adapts the signal can be different or from the same type, but with differences in some of their dimensions. There are different waveguide transitions that, depending on their utility, are designed and constructed in different sections: circular, rectangular, elliptic or combinations of the former. The section of the guide does not have to have a known geometric shape, although the standards to be followed in this thesis apply to rectangular and circular sections. In the work here presented, we aim to optimize by means of parametric simulations, a transition between a coaxial cable with a K-type connector and a waveguide with circular section following the standard presented by Flann, Millitech y Antarfs for the band WR34. The transition studied is called tapered transition, which is characterized by the progressive variation of its dimensions, until reaching the defined size of the corresponding standard. The way of optimizing the transition will be based in the study of the parameter S11 presented by the structure along the bandwidth. Since the standard used is the WR34, the bandwidth can be defined from 21.7 up to 33 GHz. It is aimed that the response of the S11 parameter be lower equal than -20dB in the frequency band under study according to the design in order to be well matched. Finally, a criterion to follow is proposed in order to optimize these transitions type, following the better-match objective. That will be done taking into account the impact of each section on the frequency range in which influences and the final characteristics of the studied transition will be presented. In this document, it is briefly introduced the utility of quarter-wave impedance transformers in transmission lines, the state-of-art of the different techniques for their design, and the proposal of design and characterization aimed with this work. Afterwards, the study case for the design of the transition to be integrated with a choke horn antenna will be presented. Later, the theoretical frame work is introduced, giving some illustrative examples of rectangular and circular waveguide sections, and also introducing λ/4 adaptors in the simulations. Subsequently, the implementation of the model under study in CST (Computer Simulation Technology) Studio Suite will be explained. Finally, the discussion of the results, conclusion and future lines of the work are presented.
Resumo:
The paper shows the design process of Nagele, a Dutch modernist agrarian settlement designed during the Post-Second World War period by the internationally recognized group of architects De 8 en Opbouw: Rietveld, Van Eesteren, Merkelbach, van Eyck, Bakema, Stam, Ruys, etc. It is located in the Noordoostpolder (NOP), in the Flevoland province, which was entirely reclaimed from the sea. The country planning of the Noodoostpolder reveals a high rationalization in the disposal of roads, canals, cities, agrarian land and forests, which can be an inspiration for the cities of today. The configurational elements of Nagele must be understood in terms of their relationship to the overall system of the polder. Important territorial principles in structure, form and landscape can be seen in the project of Nagele. This relationship is an additional example of the continuing transformation that the entire length and breadth of The Netherlands in subjected to. The research developed to date reveals a plan which shows the evolution of functionalistic paradigm at the CIAM postwar congresses. The particular case of Nagele points to the incorporation of human scale, green design and social co-existence. The source of these theories mainly came from Aldo van Eyck, who played an important role during the second phase of design. The research will be developed analyzing his drawings and texts and will show the way his theories appear in the project. Can Nagele be a materialization of Van Eyck¿s ideas? Nagele constitutes one of the most outstanding contributions to modern urban planning as far as both urbanism and landscape, are at the service of human well-being. Not only were urban independently designed parts, but their relationships also formed a perfect urban whole.
Resumo:
Desde hace ya varias décadas la praxis de la ecología ha venido reconociendo la necesidad de estudiar los múltiples sistemas de interacción del ser humano, como especie viva, y su entorno. Entidades espaciales como el paisaje geográfico son empleadas para delimitar sistemas territoriales operados por la sociedad, precisando campos concretos de su acción física, biológica y cultural. La ecología aborda así el conocimiento científico del territorio como asentamiento humano, rastrea sus patrones espaciales y analiza su compleja estructura funcional. En ese contexto, la transferencia de herramientas e instrumentos desde la ecología al ámbito proyectivo posee ya un bagaje de más de cinco décadas. Cada vez con más frecuencia el proyecto emplea parámetros, inventarios, fórmulas, indicadores y tecnologías que tratan de dar una respuesta ambientalmente adecuada a los condicionantes de contorno, por ejemplo aprovechando las condiciones climáticas en la optimización energética o proponiendo programas de usos del suelo que eviten perturbaciones en ecosistemas de interés. Con todo, en el momento presente surgen voces que, ante el dominio indiscutible de los enfoques netamente deterministas, tratan de recordar que los principios del pensamiento ecológico van más allá del mero control cuantitativo de los procesos biofísicos. Recuerdan que la etología demostró a principios del XX que el ser humano, como ser consciente, inviste una relación de intimidad con su entorno que supera tales perspectivas: a través de la correspondencia entre percepción y significación, entre lo físico y lo psíquico, entre interioridad y exterioridad, las personas abrazan la plenitud de aquello que les rodea en un acto de profunda conciliación afectiva. De tal ligadura de intimidad depende, sí o sí, y en toda su profundidad, la aceptación humana del entorno construido. A través de la noción de ambiente [Umwelt] se demuestra que la relación del hombre con su entorno es inseparable, bidireccional y coordinada y, por lo tanto, desde una posición coherente, la experiencia del espacio puede ser examinada a partir de la reciprocidad que constituyen, en continuidad, la persona y el lugar. De esta forma, la tesis dirige su objetivo principal a explorar y considerar, desde el proyecto, el significado y la influencia de la experiencia ambiental del espacio construido en la vida humana. Es más que probable que buena parte de los problemas de desafección del hombre con los paisajes transformados de su contemporaneidad tenga que ver con que tanto las intensidades de la experiencia y percepción humana, como la potestad interpretativa de sus productos culturales, incluyendo la arquitectura, han sido fuertemente reducidas. Ante este problema, la investigación toma como hipótesis la oportunidad que ofrece el pensamiento ecológico de reformular la experiencia estética como un acto de conocimiento, como un evento donde se da el encuentro físico y se construyen significados, donde se sancionan valores sociales y se mira hacia el futuro. Se ha de señalar que la presente tesis doctoral arranca en el Laboratorio de Paisaje del Grupo de Investigación Paisaje Cultural de la Universidad Politécnica de Madrid dirigido por Concha Lapayese y Darío Gazapo, y por tanto hace suyos para el estado del arte los principales conceptos e ideas bajo los que el trabajo teórico y práctico del grupo se viene orientando desde hace años: la consideración del paisaje como acontecimiento; la oscilación de la interpretación entre un paisaje específico y un paisaje genérico en un mundo globalizado; el reconocimiento de la experiencia estética del paisaje como una toma de conciencia social; y en definitiva, la reivindicación de la interioridad en el proyecto contemporáneo. La investigación profundiza en una línea de oportunidad que se abre al promover lo que se ha llamado un conocimiento por lo sentido como estrategia ambiental que permite contrarrestar mitos profundamente arraigados en las estructuras sociales. El primer paso en ese recorrido sería explorar ecológicamente el aporte de la experiencia estética; esto es, su consideración como forma de conocimiento específico. Resultaría pertinente impulsar la idea de la inmersión en el paisaje como fenómeno experiencial, sensual y corporal, y enfrentar, desde ahí, el problema de la aceptación social de lo nuevo y lo trasformado de acuerdo con el momento actual. La exploración sobre la afectividad en el ambiente no es, en cualquier caso, un asunto nuevo. Sin pretensiones de historiografía, dos momentos del siglo XX concentran el interés de la investigación. La primera se corresponde fundamentalmente con la segunda década del siglo, en relación a una serie de influencias que desde los avances científicos determinaron singulares aventuras del arte más experimental. La segunda se posiciona en el entorno de 1970, época en la que es conocido el interés que despertaron las cuestiones ambientales. En ambos casos se han estudiado aportaciones que desvelan conceptos determinantes en la definición de la experiencia estética como un evento de adquisición de conocimiento por lo sentido. Es conveniente adelantar el rol de centralidad que para la investigación tiene el concepto de energía, tal como el propio título subraya. La energía como realidad material y sensible es el sustrato que permite navegar por el principio de unidad epistemológica que subyace al pensamiento ecológico. Sus continuas referencias simbólicas, físicas y metafóricas entre los artistas estudiados no son un mero recurso iconográfico: mantienen inherente el principio de continuidad ambiental en el cual el ser humano y la inmensidad del cosmos navegan indisociables. Un discurso unificado y consistente sobre los aportes de la experiencia estética enfocada como forma de conocimiento por lo sentido hila la lectura histórica, conceptual y práctica de toda la investigación. Con ello se alcanza a hilvanar un diagrama conceptual, modelo de análisis proyectivo, que recoge ideas científicas, filosóficas y proyectivas. De alguna manera, el diagrama trata de dibujar, desde los principios del pensamiento ecológico, la correlación de continuidad que, vacilante, tensa, sutil y frágil se desplaza incesante e irresuelta entre interioridad y exterioridad. ABSTRACT Over the last few decades ecological practice has come to acknowledge a need for studying the multiple systems of interaction between the human being - inasmuch as it is a living species - and its environment. Spatial entities such as the geographic notion of landscape have been used to delimitate the territorial systems operated by society and to describe in detail specific fields of its physical, biological and cultural action. Ecology has thus managed to address the scientific knowledge of the territory as a human settlement, tracking its spatial patterns and analysing its complex functional structure. In this context, the transfer of tools and instruments from the field of ecology to that of design has a tradition already going back more than fifty years. Increasingly more often, design makes use of parameters, inventories, formulas, indicators and technologies to give an environmentally sound response to contour conditions: for instance, taking advantage of the local climate for the optimisation of energy consumption or proposing land uses that avoid disturbing valuable ecosystems. Yet in the present day some voices have arisen that, against the uncontested domination of purely positivistic approaches, are trying to draw attention to the fact that the principles of ecological thought go beyond mere quantitative control of biophysical processes. They point out that, in the early 20th century, ethology proved that the human being, as a conscious entity, invests itself into a relationship of intimacy with its environment that surpasses such perspectives: through the correspondences between perception and signification, between physical and psychological or between inside and outside, people embrace the entirety of their surroundings in an action of deep affective conciliation. It is on this link of intimacy that - fully and unquestionably - human acceptance of the built environment depends. Through the notion of environment [Umwelt] it can be proven that the relationship between the human being and its environment is inseparable, bidirectional and coordinated; and that, therefore, from a coherent position the experience of space can be examined through the reciprocity constituted continuously by person and place. Thus, the main goal in this thesis is to explore and acknowledge, from the standpoint of design, the meaning and influence of the environmental experience in human life. It is extremely likely that many of the issues with mankind’s alienation from the transformed landscapes of the present day arise from the fact that both the intensity of human perception and experience and the interpretive capacity of its cultural products –including architecture - have been greatly reduced. Facing this issue, research has taken as hypothesis the opportunity offered by ecological thought of reformulating aesthetic experience as an act of knowledge – as an event where physical encounter takes place and meanings are constructed; where social values are sanctioned and the path towards the future is drawn. This notwithstanding, the present thesis began in the Landscape Laboratory of the Technical University of Madrid Cultural Landscape Research Group (GIPC-UPM), led by Concha Lapayese and Darío Gazapo; and has therefore appropriated for its state of the art the main concepts and ideas that have been orienting the practical and theoretical work of the latter: the understanding of landscape as an event, the oscillation of interpretation between a specific and a generic landscape within a globalised world; the acknowledgement of the aesthetic experience of landscape as a way of acquiring social awareness; and, all in all, a vindication of interiority in contemporary design. An exploration has been made of the line of opportunity that is opened when promoting what has been termed knowledge through the senses as an environmental strategy allowing to counter myths deeply rooted in social structures. The first step in this path would be an ecological exploration of the contribution of the aesthetic experience; that is, its consideration as a type of specific knowledge. It would be pertinent to further the idea of immersion into the landscape as an experiential, sensual and corporeal phenomenon and, from that point, to face the issue of social acceptance of what is new and transformed according to the values of the present day. The exploration of affectivity in the environment is not, at any rate, a new topic. Without aspiring to make a history of it, we can mark two points in the 20th century that have concentrated the interest of this research. The first coincides with the second decade of the century and relates to a number of influences that, arising from scientific progress, determined the singular adventures of the more experimental tendencies in art. The second is centred around 1970: a period in which the interest drawn by environmental matters is well known. In both cases, contributions have been studied that reveal crucial concepts in defining the aesthetic experience as an event for the acquisition of knowledge through the senses. It is necessary to highlight the role of centrality that the concept of energy has throughout this research, as is evident even in its title. Energy as a material, sensitive reality is the substrate making it possible to navigate through the principle of epistemological unity underlying ecological thought. The continuous symbolic, physical and metaphorical references to it among the artists studied here are not a mere iconographic source: they remind of the inherency of the principle of environmental continuity within which the human being and the immensity of cosmos travel indissociably. A unified, consistent discourse on the contributions of the aesthetic experience addressed as knowledge through the senses weaves together the historic, conceptual and practical reading of the whole research. With it, a conceptual diagram is constructed – a model of design analysis – gathering together scientific, philosophical and design ideas. Somehow, the diagram tries to draw from the principles of ecological thought the correlation of continuity that, vacillating, tense, subtle and fragile, shifts incessantly and unresolved between interiority and exteriority.
Resumo:
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.
Resumo:
En la presente Tesis se ha llevado a cabo el contraste y desarrollo de metodologías que permitan mejorar el cálculo de las avenidas de proyecto y extrema empleadas en el cálculo de la seguridad hidrológica de las presas. En primer lugar se ha abordado el tema del cálculo de las leyes de frecuencia de caudales máximos y su extrapolación a altos periodos de retorno. Esta cuestión es de gran relevancia, ya que la adopción de estándares de seguridad hidrológica para las presas cada vez más exigentes, implica la utilización de periodos de retorno de diseño muy elevados cuya estimación conlleva una gran incertidumbre. Es importante, en consecuencia incorporar al cálculo de los caudales de diseño todas la técnicas disponibles para reducir dicha incertidumbre. Asimismo, es importante hacer una buena selección del modelo estadístico (función de distribución y procedimiento de ajuste) de tal forma que se garantice tanto su capacidad para describir el comportamiento de la muestra, como para predecir de manera robusta los cuantiles de alto periodo de retorno. De esta forma, se han realizado estudios a escala nacional con el objetivo de determinar el esquema de regionalización que ofrece mejores resultados para las características hidrológicas de las cuencas españolas, respecto a los caudales máximos anuales, teniendo en cuenta el numero de datos disponibles. La metodología utilizada parte de la identificación de regiones homogéneas, cuyos límites se han determinado teniendo en cuenta las características fisiográficas y climáticas de las cuencas, y la variabilidad de sus estadísticos, comprobando posteriormente su homogeneidad. A continuación, se ha seleccionado el modelo estadístico de caudales máximos anuales con un mejor comportamiento en las distintas zonas de la España peninsular, tanto para describir los datos de la muestra como para extrapolar a los periodos de retorno más altos. El proceso de selección se ha basado, entre otras cosas, en la generación sintética de series de datos mediante simulaciones de Monte Carlo, y el análisis estadístico del conjunto de resultados obtenido a partir del ajuste de funciones de distribución a estas series bajo distintas hipótesis. Posteriormente, se ha abordado el tema de la relación caudal-volumen y la definición de los hidrogramas de diseño en base a la misma, cuestión que puede ser de gran importancia en el caso de presas con grandes volúmenes de embalse. Sin embargo, los procedimientos de cálculo hidrológico aplicados habitualmente no tienen en cuenta la dependencia estadística entre ambas variables. En esta Tesis se ha desarrollado un procedimiento para caracterizar dicha dependencia estadística de una manera sencilla y robusta, representando la función de distribución conjunta del caudal punta y el volumen en base a la función de distribución marginal del caudal punta y la función de distribución condicionada del volumen respecto al caudal. Esta última se determina mediante una función de distribución log-normal, aplicando un procedimiento de ajuste regional. Se propone su aplicación práctica a través de un procedimiento de cálculo probabilístico basado en la generación estocástica de un número elevado de hidrogramas. La aplicación a la seguridad hidrológica de las presas de este procedimiento requiere interpretar correctamente el concepto de periodo de retorno aplicado a variables hidrológicas bivariadas. Para ello, se realiza una propuesta de interpretación de dicho concepto. El periodo de retorno se entiende como el inverso de la probabilidad de superar un determinado nivel de embalse. Al relacionar este periodo de retorno con las variables hidrológicas, el hidrograma de diseño de la presa deja de ser un único hidrograma para convertirse en una familia de hidrogramas que generan un mismo nivel máximo en el embalse, representados mediante una curva en el plano caudal volumen. Esta familia de hidrogramas de diseño depende de la propia presa a diseñar, variando las curvas caudal-volumen en función, por ejemplo, del volumen de embalse o la longitud del aliviadero. El procedimiento propuesto se ilustra mediante su aplicación a dos casos de estudio. Finalmente, se ha abordado el tema del cálculo de las avenidas estacionales, cuestión fundamental a la hora de establecer la explotación de la presa, y que puede serlo también para estudiar la seguridad hidrológica de presas existentes. Sin embargo, el cálculo de estas avenidas es complejo y no está del todo claro hoy en día, y los procedimientos de cálculo habitualmente utilizados pueden presentar ciertos problemas. El cálculo en base al método estadístico de series parciales, o de máximos sobre un umbral, puede ser una alternativa válida que permite resolver esos problemas en aquellos casos en que la generación de las avenidas en las distintas estaciones se deba a un mismo tipo de evento. Se ha realizado un estudio con objeto de verificar si es adecuada en España la hipótesis de homogeneidad estadística de los datos de caudal de avenida correspondientes a distintas estaciones del año. Asimismo, se han analizado los periodos estacionales para los que es más apropiado realizar el estudio, cuestión de gran relevancia para garantizar que los resultados sean correctos, y se ha desarrollado un procedimiento sencillo para determinar el umbral de selección de los datos de tal manera que se garantice su independencia, una de las principales dificultades en la aplicación práctica de la técnica de las series parciales. Por otra parte, la aplicación practica de las leyes de frecuencia estacionales requiere interpretar correctamente el concepto de periodo de retorno para el caso estacional. Se propone un criterio para determinar los periodos de retorno estacionales de forma coherente con el periodo de retorno anual y con una distribución adecuada de la probabilidad entre las distintas estaciones. Por último, se expone un procedimiento para el cálculo de los caudales estacionales, ilustrándolo mediante su aplicación a un caso de estudio. The compare and develop of a methodology in order to improve the extreme flow estimation for dam hydrologic security has been developed. First, the work has been focused on the adjustment of maximum peak flows distribution functions from which to extrapolate values for high return periods. This has become a major issue as the adoption of stricter standards on dam hydrologic security involves estimation of high design return periods which entails great uncertainty. Accordingly, it is important to incorporate all available techniques for the estimation of design peak flows in order to reduce this uncertainty. Selection of the statistical model (distribution function and adjustment method) is also important since its ability to describe the sample and to make solid predictions for high return periods quantiles must be guaranteed. In order to provide practical application of previous methodologies, studies have been developed on a national scale with the aim of determining a regionalization scheme which features best results in terms of annual maximum peak flows for hydrologic characteristics of Spanish basins taking into account the length of available data. Applied methodology starts with the delimitation of regions taking into account basin’s physiographic and climatic characteristics and the variability of their statistical properties, and continues with their homogeneity testing. Then, a statistical model for maximum annual peak flows is selected with the best behaviour for the different regions in peninsular Spain in terms of describing sample data and making solid predictions for high return periods. This selection has been based, among others, on synthetic data series generation using Monte Carlo simulations and statistical analysis of results from distribution functions adjustment following different hypothesis. Secondly, the work has been focused on the analysis of the relationship between peak flow and volume and how to define design flood hydrographs based on this relationship which can be highly important for large volume reservoirs. However, commonly used hydrologic procedures do not take statistical dependence between these variables into account. A simple and sound method for statistical dependence characterization has been developed by the representation of a joint distribution function of maximum peak flow and volume which is based on marginal distribution function of peak flow and conditional distribution function of volume for a given peak flow. The last one is determined by a regional adjustment procedure of a log-normal distribution function. Practical application is proposed by a probabilistic estimation procedure based on stochastic generation of a large number of hydrographs. The use of this procedure for dam hydrologic security requires a proper interpretation of the return period concept applied to bivariate hydrologic data. A standard is proposed in which it is understood as the inverse of the probability of exceeding a determined reservoir level. When relating return period and hydrological variables the only design flood hydrograph changes into a family of hydrographs which generate the same maximum reservoir level and that are represented by a curve in the peak flow-volume two-dimensional space. This family of design flood hydrographs depends on the dam characteristics as for example reservoir volume or spillway length. Two study cases illustrate the application of the developed methodology. Finally, the work has been focused on the calculation of seasonal floods which are essential when determining the reservoir operation and which can be also fundamental in terms of analysing the hydrologic security of existing reservoirs. However, seasonal flood calculation is complex and nowadays it is not totally clear. Calculation procedures commonly used may present certain problems. Statistical partial duration series, or peaks over threshold method, can be an alternative approach for their calculation that allow to solve problems encountered when the same type of event is responsible of floods in different seasons. A study has been developed to verify the hypothesis of statistical homogeneity of peak flows for different seasons in Spain. Appropriate seasonal periods have been analyzed which is highly relevant to guarantee correct results. In addition, a simple procedure has been defined to determine data selection threshold on a way that ensures its independency which is one of the main difficulties in practical application of partial series. Moreover, practical application of seasonal frequency laws requires a correct interpretation of the concept of seasonal return period. A standard is proposed in order to determine seasonal return periods coherently with the annual return period and with an adequate seasonal probability distribution. Finally a methodology is proposed to calculate seasonal peak flows. A study case illustrates the application of the proposed methodology.
Resumo:
Los tratamientos biopelícula fueron unos de los primeros tratamientos biológicos que se aplicaron en las aguas residuales. Los tratamientos biopelícula presentan importantes ventajas frente a los cultivos en suspensión, sin embargo, el control de los tratamientos biopelícula es complicado y su modelización también. Las bases teóricas del comportamiento de las biopelículas empezaron a desarrollarse fundamentalmente a partir de los años 80. Dado que el proceso es complejo con ecuaciones de difícil resolución, estas conceptualizaciones han sido consideradas durante años como ejercicios matemáticos más que como herramientas de diseño y simulación. Los diseños de los reactores estaban basados en experiencias de plantas piloto o en comportamientos empíricos de determinadas plantas. Las ecuaciones de diseño eran regresiones de los datos empíricos. La aplicabilidad de las ecuaciones se reducía a las condiciones particulares de la planta de la que provenían los datos empíricos. De tal forma que existía una gran variedad y diversidad de ecuaciones empíricas para cada tipo de reactor. La investigación médica durante los años 90 centró su atención en la formación y eliminación de las biopelículas. Gracias al desarrollo de nuevas prácticas de laboratorio que permitían estudiar el interior de las biopelículas y gracias también al aumento de la capacidad de los ordenadores, la simulación del comportamiento de las biopelículas tomó un nuevo impulso en esta década. El desarrollo de un tipo de biopelículas, fangos granulares, en condiciones aerobias realizando simultaneamente procesos de eliminación de nutrientes ha sido recientemente patentado. Esta patente ha recibido numerosos premios y reconocimientos internacionales tales como la Eurpean Invention Award (2012). En 1995 se descubrió que determinadas bacterias podían realizar un nuevo proceso de eliminación de nitrógeno denominado Anammox. Este nuevo tipo de proceso de eliminación de nitrógeno tiene el potencial de ofrecer importantes mejoras en el rendimiento de eliminación y en el consumo de energía. En los últimos 10 años, se han desarrollado una serie de tratamientos denominados “innovadores” de eliminación de nutrientes. Dado que no resulta posible el establecimiento de estas bacterias Anammox en fangos activos convencionales, normalmente se recurre al uso de cultivos biopelícula. La investigación se ha centrado en el desarrollo de estos procesos innovadores en cultivos biopelícula, en particular en los fangos granulares y MBBR e IFAs, con el objeto de establecer las condiciones bajo las cuales estos procesos se pueden desarrollar de forma estable. Muchas empresas y organizaciones buscan una segunda patente. Una cuestión principal en el desarrollo de estos procesos se encuentra la correcta selección de las condiciones ambientales y de operación para que unas bacterias desplacen a otras en el interior de las biopelículas. El diseño de plantas basado en cultivos biopelícula con procesos convencionales se ha realizado normalmente mediante el uso de métodos empíricos y semi-empíricos. Sin embargo, los criterios de selección avanzados aplicados en los Tratamientos Innovadores de Eliminación de Nitrógeno unido a la complejidad de los mecanismos de transporte de sustratos y crecimiento de la biomasa en las biopelículas, hace necesario el uso de herramientas de modelización para poder conclusiones no evidentes. Biofilms were one of the first biological treatments used in the wastewater treatment. Biofilms exhibit important advantages over suspended growth activated sludge. However, controlling biofilms growth is complicated and likewise its simulation. The theoretical underpinnings of biofilms performance began to be developed during 80s. As the equations that govern the growth of biofilms are complex and its resolution is challenging, these conceptualisations have been considered for years as mathematical exercises instead of practical design and simulation tools. The design of biofilm reactors has been based on performance information of pilot plants and specific plants. Most of the times, the designing equations were simple regressions of empirical data. The applicability of these equations were confined to the particular conditions of the plant from where the data came from. Consequently, there were a wide range of design equations for each type of reactor During 90s medical research focused its efforts on how biofilm´s growth with the ultimate goal of avoiding it. Thanks to the development of new laboratory techniques that allowed the study the interior of the biofilms and thanks as well to the development of the computers, simulation of biofilms’ performance had a considerable evolution during this decade. In 1995 it was discovered that certain bacteria can carry out a new sort of nutrient removal process named Anammox. This new type of nutrient removal process potentially can enhance considerably the removal performance and the energy consumption. In the last decade, it has been developed a range of treatments based on the Anammox generally named “Innovative Nutrient Removal Treatments”. As it is not possible to cultivate Anammox bacteria in activated sludge, normally scientists and designers resort to the use of biofilms. A critical issue in the development of these innovative processes is the correct selection of environment and operation conditions so as to certain bacterial population displace to others bacteria within the biofilm. The design of biofilm technology plants is normally based on the use of empirical and semi-empirical methods. However, the advanced control strategies used in the Innovative Nutrient Removal Processes together with the complexity of the mass transfer and biomass growth in biofilms, require the use of modeling tools to be able to set non evident conclusions.