100 resultados para modelo digital del terreno
em Universidad Politécnica de Madrid
Resumo:
El proyecto consiste en la realización de un mapa topográfico a escala 1/500 del histórico parque de San Isidro y la elaboración de un modelo digital del terreno. Se ha elegido este proyecto porque creo que no hay ningún mapa a esta escala que plasme el parque en la actualidad debido a los cambios que ha sufrido en los últimos años (explanada de ampliación, tanatorio, jardines, carril-bici, zonas deportivas, parques infantiles…) y puesto que es uno de los parques más conocidos y con más historia de Madrid, en el que además se celebran las tradicionales fiestas de San Isidro, creo que es apropiado disponer de un mapa topográfico de gran escala, por si en un futuro se quieren realizar: obras de mejora o restauración, jardines, zonas deportivas o de ocio… Para la realización de este proyecto primero generamos una red de puntos mediante técnicas espaciales GNSS y mediante técnicas de topografía clásica y se realiza una radiación mediante técnicas de topografía clásica para dar coordenadas a los puntos necesarios para la realización de la cartografía. Posteriormente a través de los puntos obtenidos en campo se realiza las cartografías a escala 1/500 y el modelo digital del terreno 3D con el cual obtendremos las curvas de nivel que definirán la altimetría de nuestro trabajo.
Resumo:
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.
Resumo:
El objeto del presente proyecto es dotar al parque público “Juan Pablo II”, de una cartografía a escala 1/250, además de realizar el modelo digital del terreno de dicho parque. El trabajo va a consistir en un levantamiento topográfico del sector oeste del parque público “Juan Pablo II”. Dado que el parque en toda su dimensión se encuentra dividido en dos por la Avenida de Machupichu, siendo la oeste la que forma parte de este proyecto. El levantamiento se realizará mediante el método de observación G.N.S.S. denominado R.T.K. (Real Time Kinematic) que consiste en la obtención de coordenadas en tiempo real. Este levantamiento se realizará apoyándose en puntos de una red implantada, a la que se dotará de coordenadas por el método de observación G.N.S.S. denominado “Estático” y por metodología clásica. A la red se le dotará de coordenadas en el Sistema de Referencia Oficial. Se realizará la cartografía del parque a partir de los datos del levantamiento y con el uso de programas de CAD. Finalmente, se realizará un modelo digital del terreno. El parque público “Juan Pablo II” se encuentra situado en barrio de La Piovera, en el término municipal de Madrid, provincia de Madrid. El parque ocupa 6 hectáreas y es el elegido para nuestro proyecto. Este parque está limitado por el norte por la Avda. del Papa Negro, por el sur está limitado por la Avda. de las Piceas, por el este por la Avda. Machupichu, por el oeste por un pinar. 1.- Estudio de Redes para la obtención de la Red Básica: Por metodología G.N.S.S., se ha realizado cuatro simulaciones, teniendo como criterios: Longitud de la líneas base; Tiempo de observación; Precisiones obtenidas. Y comprobación de la Red Básica por metodología Clásica. 2.- Creación de aplicación para representar redes en Google Earth (Geodesicas-kml). Ante la falta de aplicaciones libres para esta opción de difusión de redes de manera fácil y gratuita, se creó esta aplicación. 3.- Diseño cartográfico, mapas a escala 1/250. Esta escala fue elegida porque se quería tener un buen detalle para la creación del MDT. 4.- Creación de MDT, y adaptado a visualización en Google Earth. Se eligió esta plataforma para que no se necesitase ninguna aplicación de pago y por su gran difusión, facilitando la divulgación de los MDT. 5.- Paseo virtual en el interior del parque. Película de un recorrido dentro del parque con todos los elementos más representativos.
Resumo:
La utilización de una cámara fotogramétrica digital redunda en el aumento demostrable de calidad radiométrica debido a la mejor relación señal/ruido y a los 12 bits de resolución radiométrica por cada pixel de la imagen. Simultáneamente se consigue un notable ahorro de tiempo y coste gracias a la eliminación de las fases de revelado y escaneado de la película y al aumento de las horas de vuelo por día. De otra parte, el sistema láser aerotransportado (LIDAR - Light Detection and Ranging) es un sistema con un elevado rendimiento y rentabilidad para la captura de datos de elevaciones para generar un modelo digital del terreno (MDT) y también de los objetos sobre el terreno, permitiendo así alcanzar alta precisión y densidad de información. Tanto el sistema LIDAR como el sistema de cámara fotogramétrica digital se combinan con otras técnicas bien conocidas: el sistema de posicionamiento global (GPS - Global Positioning System) y la orientación de la unidad de medida inercial (IMU - Inertial Measure Units), que permiten reducir o eliminar el apoyo de campo y realizar la orientación directa de los sensores utilizando datos de efemérides precisas de los satélites. Combinando estas tecnologías, se va a proponer y poner en práctica una metodología para generación automática de ortofotos en países de América del Sur. Analizando la precisión de dichas ortofotos comparándolas con fuente de mayor exactitud y con las especificaciones técnicas del Plan Nacional de Ortofotografía Aérea (PNOA) se determinará la viabilidad de que dicha metodología se pueda aplicar a zonas rurales. ABSTRACT Using a digital photogrammetric camera results in a demonstrable increase of the radiometric quality due to a better improved signal/noise ratio and the radiometric resolution of 12 bits per pixel of the image. Simultaneously a significant saving of time and money is achieved thanks to the elimination of the developing and film scanning stages, as well as to the increase of flying hours per day. On the other hand, airborne laser system Light Detection and Ranging (LIDAR) is a system with high performance and yield for the acquisition of elevation data in order to generate a digital terrain model (DTM), as well as objects on the ground which allows to achieve high accuracy and data density. Both the LIDAR and the digital photogrammetric camera system are combined with other well known techniques: global positioning system (GPS) and inertial measurement unit (IMU) orientation, which are currently in a mature evolutionary stage, which allow to reduce and/or remove field support and perform a direct guidance of sensors using specific historic data from the satellites. By combining these technologies, a methodology for automatic generation of orthophotos in South American countries will be proposed and implemented. Analyzing the accuracy of these orthophotos comparing them with more accurate sources and technical specifications of the National Aerial Orthophoto (PNOA), the viability of whether this methodology should be applied to rural areas, will be determined.
Resumo:
La observación de la Tierra es una herramienta de gran utilidad en la actualidad para el estudio de los fenómenos que se dan en la misma. La observación se puede realizar a distintas escalas y por distintos métodos dependiendo del propósito. El actual Trabajo Final de Grado persigue exponer la observación del territorio mediante técnicas de Teledetección, o Detección Remota, y su aplicación en la exploración de hidrocarburos. Desde la Segunda Guerra Mundial el capturar imágenes aéreas de regiones de la Tierra estaba restringido a usos cartográficos en el sentido estricto. Desde aquellos tiempos, hasta ahora, ha acontecido una serie de avances científicos que permiten deducir características intrínsecas de la Tierra mediante mecanismos complejos que no apreciamos a simple vista, pero que, están configurados mediante determinados parámetros geométricos y electrónicos, que permiten generar series temporales de fenómenos físicos que se dan en la Tierra. Hoy en día se puede afirmar que el aprovechamiento del espectro electromagnético está en un punto máximo. Se ha pasado del análisis de la región del espectro visible al análisis del espectro en su totalidad. Esto supone el desarrollo de nuevos algoritmos, técnicas y procesos para extraer la mayor cantidad de información acerca de la interacción de la materia con la radiación electromagnética. La información que generan los sistemas de captura va a servir para la aplicación directa e indirecta de métodos de prospección de hidrocarburos. Las técnicas utilizadas en detección por sensores remotos, aplicadas en campañas geofísicas, son utilizadas para minimizar costes y maximizar resultados en investigaciones de campo. La predicción de anomalías en la zona de estudio depende del analista, quien diseña, calcula y evalúa las variaciones de la energía electromagnética reflejada o emitida por la superficie terrestre. Para dicha predicción se revisarán distintos programas espaciales, se evaluará la bondad de registro y diferenciación espectral mediante el uso de distintas clasificaciones (supervisadas y no supervisadas). Por su influencia directa sobre las observaciones realizadas, se realiza un estudio de la corrección atmosférica; se programan distintos modelos de corrección atmosférica para imágenes multiespectrales y se evalúan los métodos de corrección atmosférica en datos hiperespectrales. Se obtendrá temperatura de la zona de interés utilizando los sensores TM-4, ASTER y OLI, así como un Modelo Digital del Terreno generado por el par estereoscópico capturado por el sensor ASTER. Una vez aplicados estos procedimientos se aplicarán los métodos directos e indirectos, para la localización de zonas probablemente afectadas por la influencia de hidrocarburos y localización directa de hidrocarburos mediante teledetección hiperespectral. Para el método indirecto se utilizan imágenes capturadas por los sensores ETM+ y ASTER. Para el método directo se usan las imágenes capturadas por el sensor Hyperion. ABSTRACT The observation of the Earth is a wonderful tool for studying the different kind of phenomena that occur on its surface. The observation could be done by different scales and by different techniques depending on the information of interest. This Graduate Thesis is intended to expose the territory observation by remote sensing acquiring data systems and the analysis that can be developed to get information of interest. Since Second World War taking aerials photographs of scene was restricted only to a cartographic sense. From these days to nowadays, it have been developed many scientific advances that make capable the interpretation of the surface behavior trough complex systems that are configure by specific geometric and electronic parameters that make possible acquiring time series of the phenomena that manifest on the earth’s surface. Today it is possible to affirm that the exploitation of the electromagnetic spectrum is on a maxim value. In the past, analysis of the electromagnetic spectrum was carry in a narrow part of it, today it is possible to study entire. This implicates the development of new algorithms, process and techniques for the extraction of information about the interaction of matter with electromagnetic radiation. The information that has been acquired by remote sensing sensors is going to be a helpful tool for the exploration of hydrocarbon through direct and vicarious methods. The techniques applied in remote sensing, especially in geophysical campaigns, are employed to minimize costs and maximize results of ground-based geologic investigations. Forecasting of anomalies in the region of interest depends directly on the expertise data analyst who designs, computes and evaluates variations in the electromagnetic energy reflected or emanated from the earth’s surface. For an optimal prediction a review of the capture system take place; assess of the goodness in data acquisition and spectral separability, is carried out by mean of supervised and unsupervised classifications. Due to the direct influence of the atmosphere in the register data, a study of the minimization of its influence has been done; a script has been programed for the atmospheric correction in multispectral data; also, a review of hyperspectral atmospheric correction is conducted. Temperature of the region of interest is computed using the images captured by TM-4, ASTER and OLI, in addition to a Digital Terrain Model generated by a pair of stereo images taken by ASTER sensor. Once these procedures have finished, direct and vicarious methods are applied in order to find altered zones influenced by hydrocarbons, as well as pinpoint directly hydrocarbon presence by mean of hyperspectral remote sensing. For this purpose ETM+ and ASTER sensors are used to apply the vicarious method and Hyperion images are used to apply the direct method.
Resumo:
El proyecto consiste en el levantamiento topográfico del parque de la Fuente y la parcela aledaña con referencia catastral 2891201V0001QH para la elaboración del plano topográfico y el modelo digital del terreno (MDT) de la zona, perteneciente a la localidad madrileña de Fuenlabrada. La zona de proyecto abarca una extensión aproximada de 5,2 hectáreas y tanto parque como parcela, dada su proximidad, aparecerán en el mismo plano. La zona de proyecto fue georreferenciada en sistema geodésico de referencia ETRS89, para lo cual se observó una red básica mediante técnicas GNSS, en estático rápido para ser más precisos. La proyección UTM fue la usada para la cartografía, y las altitudes están referidas a la altitud media del mar en Alicante. El levantamiento topográfico se realizó principalmente utilizando la técnica GNSS RTK en post‐proceso, ya que el levantamiento se realizó antes que la observación y cálculo de la red. Se completaron aquellas zonas en las que la señal era de baja calidad o se perdía mediante topografía clásica. El número final de puntos observados por ambas técnicas fue de 5069. El número total de bases que componen la red es 8, numeradas de la 10000 a la 10007. Ésta última se obtuvo observando una red por topografía clásica para densificar la red básica. Con los puntos del levantamiento se elabora la cartografía de la zona a escala 1/250 y se divide en tres hojas. También se obtiene el modelo digital del terreno con dos finalidades: 1. Obtener el curvado del plano topográfico. 2. Servir de punto de partida para el modelado en 3D del parque y la parcela objetos del proyecto utilizando el software Google SketchUp. En la hoja 3/3 aparece íntegramente la parcela aledaña con referencia catastral 2891201V0001QH donde se encajó el proyecto de edificación “Jardín botánico con aulas de la naturaleza”. Una vez encajado se obtuvieron las coordenadas de los puntos básicos de la edificación de cara al replanteo previo a la firma del acta de replanteo. Finalmente se redactó la memoria donde está incluido el presupuesto, reseñas y la descripción detallada de lo resumido anteriormente.
Resumo:
El objetivo de este Proyecto Fin de Carrera es el levantamiento y encaje de una línea de tranvía en Toledo. En este proyecto se combinan la utilización de técnicas mediante aparatos GPS, métodos topográficos para la realización de la poligonal, levantamiento y nivelación, así como el procesamiento de datos con programas de CAD para obtener un modelo digital del terreno de la zona de ocupación. Los factores determinantes que han conducido a la realización de un proyecto de estas características se podrían resumir como los siguientes: - Novedad del proyecto, pues hasta la fecha se ha tratado poco el tema de la ejecución de topografía de obras aplicada a medios de transporte férreos, en este caso concreto, el tranvía. - Proximidad y conocimiento de la zona de ocupación de la obra. Toledo es una ciudad cercana a la Universidad, por lo que desplazarse hasta ella para realizar todos los pasos del proyecto no es un inconveniente. Además, la zona concreta del levantamiento es una de las principales partes de la ciudad por la que se accede al casco histórico de la misma. - Atractivo que ejerce el tranvía como medio de transporte, gracias en parte a su actual renacimiento en muchas ciudades. - Elaboración de un proyecto completo, que reúna la utilización en una obra de diferentes metodologías y aparatos topográficos. El objetivo a alcanzar en este proyecto es la realización de un levantamiento topográfico de la zona de actuación, que conlleva un posterior modelo digital del terreno, para realizar la proyección de una vía de tranvía en la localidad de Toledo. El levantamiento se ha realizado combinando técnicas clásicas de la Topografía, como son la poligonal, la radiación y la nivelación geométrica, con técnicas actuales como el sistema global de navegación por satélite o GNSS. Se ha tenido en cuenta las precisiones que aporta cada método y la influencia de éstas en la determinación posterior de las coordenadas de los puntos que forman la cartografía del terreno. Una vez obtenida la cartografía base de la zona, se procedió al cálculo del trazado de la vía, siempre acorde con la normativa reglamentaria correspondiente. La vía a proyectar une la estación de trenes de alta velocidad con la Puerta de Bisagra, situada en la muralla que da acceso al casco antiguo. El recorrido total entre ambos puntos es de unos 1260 m.
Resumo:
Una de las principales preocupaciones a la hora de realizar cualquier proyecto de ingeniería es la adecuada determinación de los hidrogramas de avenida de los cursos de agua que lo afecten. Hoy en día es posible la simulación de modelos hidrológicos complejos de lluvia directa sobre malla 2D de elementos finitos, empleando los avances en cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo), sin la necesidad de determinar subcuencas y tránsitos (como en HEC-HMS). Con los datos que ofrecen los Modelos Digitales del Terreno GRID del PNOA español (Plan Nacional de Ortofotografía Aérea) con precisión de 5 x 5 m y las Coberturas del Terreno SIG CORINE (Coordinación de Información del Medio Ambiente), que permite la evaluación de la rugosidad del suelo, se tiene la información necesaria para construir fácilmente este tipo de modelos. En este documento se presenta un procedimiento para delimitar fácilmente los cursos de agua principales y disponer en estas zonas un tamaño más pequeño de los elementos de la malla. El método propuesto permite una mejor definición de estas áreas después de unas pocas iteraciones, acelerando por tanto el proceso de construcción del modelo sin comprometer la calidad de los resultados. Para demostrar el método, se modelizaron dos cuencas completas mediante lluvia directa sobre una malla de elementos 2D. Se ensayaron diferentes niveles de precisión (variando el número de elementos) y se incluyeron dos presas, usando los datos del Modelo Digital del Terreno del PNOA. También se completó el cálculo hidrológico de ambas mediante HEC-HMS. En primer lugar se estudió la cuenca del río Zapardiel (cuenca del Duero, con superficie total de 1.450 km2, no presenta regulación artificial, pero sí algunas áreas de almacenamiento naturales). La segunda cuenca ensayada correspondió al río Zújar (cuenca del Guadiana, con superficie total de 8.500 km2, que incluye dos grandes presas: La Serena, con una capacidad de 3.200 hm3 y el Embalse del Zújar, situado aguas abajo de la primera, con un volumen útil de 300 hm3). Los resultados confirmaron que la forma de modelizar clásica con enfoque de subcuencas y tránsitos (tipo HEC-HMS) puede ser reemplazada por simulaciones de lluvia directa sobre malla 2D, por lo tanto reduciendo la incertidumbre inherente en la estimación de tiempos de concentración de subcuencas y parámetros de tránsito. Gracias a la disponibilidad de datos públicos de GRID PNOA y cobertura del terreno CORINE, actualmente es posible construir modelos de mallas de elementos 2D para simular lluvia directa sobre cuenca sin necesidad de costosos levantamientos topográficos. Con el hardware disponible hoy en día en ordenadores de uso general, se puede establecer un límite superior razonable para mallas 2D de 4 millones de elementos, lo que permite la correcta simulación de la lluvia directa en cuencas de hasta 10.000 km2. Para cuencas más grandes, este proceso se podría aplicar de forma repetida a varias zonas más pequeñas o en sucesivas secciones de la cuenca.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
El proyecto geotécnico de columnas de grava tiene todas las incertidumbres asociadas a un proyecto geotécnico y además hay que considerar las incertidumbres inherentes a la compleja interacción entre el terreno y la columna, la puesta en obra de los materiales y el producto final conseguido. Este hecho es común a otros tratamientos del terreno cuyo objetivo sea, en general, la mejora “profunda”. Como los métodos de fiabilidad (v.gr., FORM, SORM, Monte Carlo, Simulación Direccional) dan respuesta a la incertidumbre de forma mucho más consistente y racional que el coeficiente de seguridad tradicional, ha surgido un interés reciente en la aplicación de técnicas de fiabilidad a la ingeniería geotécnica. Si bien la aplicación concreta al proyecto de técnicas de mejora del terreno no es tan extensa. En esta Tesis se han aplicado las técnicas de fiabilidad a algunos aspectos del proyecto de columnas de grava (estimación de asientos, tiempos de consolidación y aumento de la capacidad portante) con el objetivo de efectuar un análisis racional del proceso de diseño, considerando los efectos que tienen la incertidumbre y la variabilidad en la seguridad del proyecto, es decir, en la probabilidad de fallo. Para alcanzar este objetivo se ha utilizado un método analítico avanzado debido a Castro y Sagaseta (2009), que mejora notablemente la predicción de las variables involucradas en el diseño del tratamiento y su evolución temporal (consolidación). Se ha estudiado el problema del asiento (valor y tiempo de consolidación) en el contexto de la incertidumbre, analizando dos modos de fallo: i) el primer modo representa la situación en la que es posible finalizar la consolidación primaria, parcial o totalmente, del terreno mejorado antes de la ejecución de la estructura final, bien sea por un precarga o porque la carga se pueda aplicar gradualmente sin afectar a la estructura o instalación; y ii) por otra parte, el segundo modo de fallo implica que el terreno mejorado se carga desde el instante inicial con la estructura definitiva o instalación y se comprueba que el asiento final (transcurrida la consolidación primaria) sea lo suficientemente pequeño para que pueda considerarse admisible. Para trabajar con valores realistas de los parámetros geotécnicos, los datos se han obtenido de un terreno real mejorado con columnas de grava, consiguiendo, de esta forma, un análisis de fiabilidad más riguroso. La conclusión más importante, obtenida del análisis de este caso particular, es la necesidad de precargar el terreno mejorado con columnas de grava para conseguir que el asiento ocurra de forma anticipada antes de la aplicación de la carga correspondiente a la estructura definitiva. De otra forma la probabilidad de fallo es muy alta, incluso cuando el margen de seguridad determinista pudiera ser suficiente. En lo que respecta a la capacidad portante de las columnas, existen un buen número de métodos de cálculo y de ensayos de carga (tanto de campo como de laboratorio) que dan predicciones dispares del valor de la capacidad última de las columnas de grava. En las mallas indefinidas de columnas, los resultados del análisis de fiabilidad han confirmado las consideraciones teóricas y experimentales existentes relativas a que no se produce fallo por estabilidad, obteniéndose una probabilidad de fallo prácticamente nula para este modo de fallo. Sin embargo, cuando se analiza, en el contexto de la incertidumbre, la capacidad portante de pequeños grupos de columnas bajo zapatas se ha obtenido, para un caso con unos parámetros geotécnicos típicos, que la probabilidad de fallo es bastante alta, por encima de los umbrales normalmente admitidos para Estados Límite Últimos. Por último, el trabajo de recopilación sobre los métodos de cálculo y de ensayos de carga sobre la columna aislada ha permitido generar una base de datos suficientemente amplia como para abordar una actualización bayesiana de los métodos de cálculo de la columna de grava aislada. El marco bayesiano de actualización ha resultado de utilidad en la mejora de las predicciones de la capacidad última de carga de la columna, permitiendo “actualizar” los parámetros del modelo de cálculo a medida que se dispongan de ensayos de carga adicionales para un proyecto específico. Constituye una herramienta valiosa para la toma de decisiones en condiciones de incertidumbre ya que permite comparar el coste de los ensayos adicionales con el coste de una posible rotura y , en consecuencia, decidir si es procedente efectuar dichos ensayos. The geotechnical design of stone columns has all the uncertainties associated with a geotechnical project and those inherent to the complex interaction between the soil and the column, the installation of the materials and the characteristics of the final (as built) column must be considered. This is common to other soil treatments aimed, in general, to “deep” soil improvement. Since reliability methods (eg, FORM, SORM, Monte Carlo, Directional Simulation) deals with uncertainty in a much more consistent and rational way than the traditional safety factor, recent interest has arisen in the application of reliability techniques to geotechnical engineering. But the specific application of these techniques to soil improvement projects is not as extensive. In this thesis reliability techniques have been applied to some aspects of stone columns design (estimated settlements, consolidation times and increased bearing capacity) to make a rational analysis of the design process, considering the effects of uncertainty and variability on the safety of the project, i.e., on the probability of failure. To achieve this goal an advanced analytical method due to Castro and Sagaseta (2009), that significantly improves the prediction of the variables involved in the design of treatment and its temporal evolution (consolidation), has been employed. This thesis studies the problem of stone column settlement (amount and speed) in the context of uncertainty, analyzing two failure modes: i) the first mode represents the situation in which it is possible to cause primary consolidation, partial or total, of the improved ground prior to implementation of the final structure, either by a pre-load or because the load can be applied gradually or programmed without affecting the structure or installation; and ii) on the other hand, the second mode implies that the improved ground is loaded from the initial instant with the final structure or installation, expecting that the final settlement (elapsed primary consolidation) is small enough to be allowable. To work with realistic values of geotechnical parameters, data were obtained from a real soil improved with stone columns, hence producing a more rigorous reliability analysis. The most important conclusion obtained from the analysis of this particular case is the need to preload the stone columns-improved soil to make the settlement to occur before the application of the load corresponding to the final structure. Otherwise the probability of failure is very high, even when the deterministic safety margin would be sufficient. With respect to the bearing capacity of the columns, there are numerous methods of calculation and load tests (both for the field and the laboratory) giving different predictions of the ultimate capacity of stone columns. For indefinite columns grids, the results of reliability analysis confirmed the existing theoretical and experimental considerations that no failure occurs due to the stability failure mode, therefore resulting in a negligible probability of failure. However, when analyzed in the context of uncertainty (for a case with typical geotechnical parameters), results show that the probability of failure due to the bearing capacity failure mode of a group of columns is quite high, above thresholds usually admitted for Ultimate Limit States. Finally, the review of calculation methods and load tests results for isolated columns, has generated a large enough database, that allowed a subsequent Bayesian updating of the methods for calculating the bearing capacity of isolated stone columns. The Bayesian updating framework has been useful to improve the predictions of the ultimate load capacity of the column, allowing to "update" the parameters of the calculation model as additional load tests become available for a specific project. Moreover, it is a valuable tool for decision making under uncertainty since it is possible to compare the cost of further testing to the cost of a possible failure and therefore to decide whether it is appropriate to perform such tests.
Resumo:
En las últimas décadas, el avance tecnológico ha aumentado a una velocidad vertiginosa. Muchos son los campos beneficiados, entre ellos la ingeniería y por consiguiente el desarrollo de maquinaria, técnicas y herramientas que facilitan el trabajo. Los vehículos aéreos no tripulados (UAVs), más conocidos como drones, se presentan como una alternativa muy interesante para llevar a cabo levantamientos topográficos mediante la técnica fotogramétrica. En este proyecto se desarrollan los Modelos Digitales del Terreno (MDT) de una superficie sobrevolada por un UAV en la localidad de Cubillos del Sil (León). Para ello, se han utilizado dos software: Mission Planner y PhotoModeler. En el primero se ha llevado a cabo la programación de la misión de vuelo del drone, siendo el fin la toma de fotografías aéreas. El segundo es el encargado de realizar la reconstrucción digital en 3D del terreno sobrevolado a partir de esas fotografías. El objetivo final es que los MDT obtenidos puedan ser utilizados en un futuro por cualquier equipo de trabajo que quiera desarrollar un proyecto sobre esos terrenos. ABSTRACT The pace of technology innovation is faster now than it has been for the past few decades. Engineering, and consequently machinery and diverse techniques, are the main beneficiaries. A clear example of this is the development of unmanned aerial vehicles (UAVs), more commonly known as drones. They are a very good alternative that can be used to carry out topographic surveys through photogrammetry. In this project the Digital Terrain Models (DTM) of an overflown area in the municipality of Cubillos del Sil (León) are developed. Two main pieces of software have been used for this purpose; Mission Planner and PhotoModeler. Programming of the drone flight mission was done with the former, allowing it to take aerial pictures, whilst the latter was used to digitally rebuild the overflown area in 3D, using the pictures from the first piece of software. The final aim of the project is to make the obtained DTM available for any future project.
Resumo:
En este trabajo se pretende estudiar las relaciones e influencias que se establecen entre la concepción de la arquitectura contemporánea y las tecnologías de la información y la comunicación señalando las profundas transformaciones producidas por estas. El método para llevar a cabo esta investigación rastrea la evolución de las teorías estéticas desde la modernidad verificando un proceso que desemboca en la estética de los objetos virtuales. En este proceso se comprueba -en clave crítica- la relación entre las más significativas tendencias de la arquitectura a partir de los sesenta con una teoría de la comunicación basada en parámetros puro-visuales. El código digital es un código visual absoluto por lo que el proceso proyectual completamente producido por ordenador se somete a una revisión reivindicando la experiencia corporal de la arquitectura. Se vislumbra, no obstante, alguna posibilidad de optimizar las nuevas tecnologías en la configuración de espacios más humanos y mejor habitables.
Resumo:
Las estructuras de forjados reticulares sobre pilares aislados han sido ampliamente utilizadas en el sur de Europa para edificios de viviendas y oficinas entre los a?nos setenta y noventa del siglo pasado. Estas estructuras, proyectadas y construidas con códigos actualmente obsoletos, podrían tener un comportamiento deficiente en caso de terremoto y es necesario evaluar su vulnerabilidad y la necesidad de ser reacondicionadas sísmicamente. Este artículo propone un modelo sencillo de transmisión de esfuerzos en uniones existentes entre forjado reticular y soporte exterior, solicitadas en la dirección normal al plano de fachada. La propuesta tiene en cuenta particularidades de estos forjados tales como la concentración de armaduras orientadas con los nervios y la presencia sistemática de crucetas de punzonamiento. El modelo global consiste en elementos tipo barra para los soportes y tipo placa para el forjado, con uniones entre ambos mediante rótulas a flexión y a torsión. La resistencia de las rótulas a flexión se determina a partir de la estimación de la porción de armadura longitudinal del forjado que transmite directamente momentos al pilar por flexión. La deformación de plastificación de las rótulas se estima con expresiones simples. Como ductilidad de las rótulas a flexión se adopta el valor propuesto por la norma FEMA 356, mientras que para las rótulas a torsión se adopta ductilidad infinita, lo cual es consistente con resultados experimentales previos. Se muestra que la respuesta frente a desplazamientos laterales impuestos monótonamente crecientes obtenida con el modelo propuesto se ajusta adecuadamente a resultados experimentales obtenidos en estudios anteriores, en cuanto a rigidez, resistencia y ductilidad.
Resumo:
La aplicación de las estrategias que promuevan la eficiencia energética y la sostenibilidad en el sector de la construcción es una tarea de fundamental importancia que estamos llamados a llevar a cabo como ciudadanos, profesionales e investigadores. Esta tesis doctoral se enmarca dentro de los trabajos de investigación llevados a cabo en los últimos años que, en la línea más general de analizar sistemas a la vez energéticamente eficientes y beneficiosos para la mejora del confort de los usuarios, se han centrado en la caracterización de los efectos sobre edificios y medioambiente derivados de la aplicación de fachadas vegetales en el ámbito arquitectónico. La investigación parte del análisis del papel que las envolventes vegetales han tenido en relación a la arquitectura a lo largo de la Historia, para luego examinar su papel actual que, más allá de su reconocido valor estético, cada vez más cobra una función arquitectónica propia. Prueba de ello es la creciente integración de las superficies vegetales experimentada en los últimos años tanto en entornos arquitectónicos como urbanos; reflejo, a su vez, del desarrollo gradual de nuevas investigaciones sobre fachadas vegetales y de la difusión de diferentes sistemas en el mercado. Tras realizar un análisis detallado de los resultados obtenidos hasta el momento en el campo de la investigación y una vez detectadas sus carencias, se procede a plantear el objetivo general de esta tesis: analizar el comportamiento térmico de una solución constructiva que incorpore un elemento vegetal, a través de la monitorización de un prototipo experimental a escala real, así como, generar una herramienta flexible que permita predecir el comportamiento térmico de determinados tipos de fachadas vegetales, posibilitando su utilización en contextos diferentes al de estudio. Con el fin de elegir el sistema de fachada vegetal más adecuado para el estudio experimental, se realizan un análisis y una catalogación de los sistemas de fachadas vegetales existentes en el mercado. Para cada sistema, se destacan las principales características, las ventajas y los inconvenientes. Para evaluar la aplicabilidad del sistema a gran escala, se fijan unos criterios de selección basados en el grado de industrialización, la eficiencia energética y la sostenibilidad. Finalmente, se elige el sistema más adecuado para el estudio experimental: sistema con elementos modulares industrializados prevegetados compuestos por cajas contenedoras de sustrato y vegetación perenne. Como siguiente paso, se procede al diseño del experimento y se da comienzo a la fase experimental que comprende más de tres años, distinguiéndose dos etapas. En ambas, la experimentación se basa en la comparación de dos cerramientos idénticos cuya única diferencia está constituida por una capa de vegetación existente en uno de ellos. En una primera etapa, a través de un tratamiento estadístico de los datos, se analiza el comportamiento energético de un cerramiento sin aislante con el objetivo de caracterizar térmicamente el elemento vegetal (sustrato más vegetación), eliminado las variables relativas a la composición del cerramiento. En una segunda etapa, se monitoriza un cerramiento con aislante con el fin de verificar la efectividad energética del sistema vegetal en cerramientos aislados. Tras corroborar la eficacia energética de dicho sistema, incluso en cerramientos aislados, se concluye el trabajo con el desarrollo de un modelo de predicción del comportamiento térmico de determinados tipos de fachadas vegetales. El modelo, de rápida y sencilla utilización, permite estimar el comportamiento térmico de una fachada vegetal en función de la temperatura exterior, la humedad relativa del aire en el exterior y la irradiancia global. Dicho modelo, desarrollado a partir de los datos tomados durante la monitorización, ha sido validado experimentalmente mostrando un elevado grado de fiabilidad. ABSTRACT Mettere in atto strategie di promozione dell'e_cienza energetica e della sostenibilità nel settore delle costruzioni è un compito di fondamentale importanza che siamo chiamati a svolgere, come cittadini, professionisti e ricercatori. Questa tesi si colloca all'interno delle ricerche che, nella linea generale di sviluppo di sistemi che siano sia effcienti dal punto di vista energetico sia vantaggiosi dal punto di vista del miglioramento del comfort degli utenti, negli ultimi anni si sono occupate di indagare gli effetti sulle costruzioni e sull'ambiente derivati dall'applicazione di facciate verdi negli edifici. La ricerca si sviluppa partendo dall'analisi del ruolo che coperture e facciate verdi hanno avuto nel corso della storia dell'Architettura per poi giungere ad esaminare il loro ruolo nell'attualit_a: oltre a un roconosciuto valore estetico in maniera crescente queste tecnologie sono chiamate a svolgere una funzione architettonica propria. Ciò è dimostrato dalla crescente integrazione di superfici verdi sia a livello architettonico sia a livello urbano registrata negli ultimi anni, che è a sua volta conseguenza del graduale sviluppo di nuove ricerche sulle facciate verdi e della diffusione nel mercato di differenti sistemi. Dopo aver realizzato un'analisi dettagliata dei risultati ottenuti finora nel campo della ricerca e una volta individuate le loro carenze, si procede a fissare l'obiettivo generale di questa tesi: analizzare il comportamento termico di una soluzione costruttiva che incorpora un elemento di vegetale attraverso il monitoraggio di un prototipo sperimentale in scala reale, così come generare uno strumento essibile che consenta di prevedere il comportamento termico di alcuni tipi di facciate verdi, possibilitando il suo uso in contesti diversi da quello studiato. Al fine di scegliere il sistema di facciata verde pi_u adatto allo studio sperimentale, si effettua un'analisi e una catalogazione dei sistemi attualmente esistenti nel mercato. Per ogni sistema si mettono in evidenza le sue principali caratteristiche, i vantaggi e gli svantaggi, e si fissano criteri di selezione basati sul livello di industrializzazione del sistema, sulla sua efficienza energetica e sulla sostenibilità, con il fine ultimo di promuovere l'applicabilità del sistema a larga scala. Infine, si sceglie il sistema più adeguato per lo studio sperimentale: il sistema industrializzato modulare composto da pannelli prevegetati con substrato e vegetazione perenne. Come passo successivo, si procede allo sviluppo dell'esperimento e si dà inizio alla sperimentazione, composta da due fasi, che si sviluppa durante più di tre anni. In entrambe le fasi, la sperimentazione si basa sul confronto di due serramenti identici la cui unica differenza è costituita dallo strato di vegetazione presente in uno di essi. Nella prima fase, attraverso un trattamento statistico dei dati, si analizza il comportamento energetico di un involucro non isolato per caratterizzare termicamente l'elemento vegetale (vegetazione più substrato), eliminando le variabili relative alla composizione del serramento. Nella seconda fase, si studia un involucro isolato con il fine di verificare l'efficacia energetica del sistema verde in serramenti isolati. Dopo aver dimostrato che il sistema è effciente anche quando applicato in involucri isolati, il lavoro si conclude con lo sviluppo di un modello predittivo del comportamento termico di alcuni tipi di facciate verdi. Il modello, veloce e di semplice utilizzo, permette la stima del comportamento termico di una facciata verde conoscendo la temperatura esterna, l'umidità relativa esterna e l'irradianza globale. Questo modello, sviluppato a partire da dati di monitoraggio, è stato validato sperimentalmente mostrando un elevato grado di precisione.
Resumo:
Uno de los fenómenos que tiene más relevancia en la estabilidad de excavaciones subterráneas es el denominado efecto arco. Su estudio se puede llevar a cabo mediante el ensayo ?trapdoor?, conocido principalmente a partir de su presentación por Terzaghi en la primera ICSMFE en 1936 [1], aunque ya con alguna referencia en el siglo XIX. En este trabajo se lleva a cabo un estudio del ensayo "trapdoor", mediante modelización numérica, con el objetivo de analizar el efecto que tiene sobre la formación del arco estable el estado tensional inicial del terreno. Para ello se ha realizado un análisis paramétrico con el programa de diferencias finitas FLAC de ITASCA. La modelización numérica posibilita este tipo de estudios al poder fijar y variar cómodamente todos los parámetros que definen el ensayo. Pero, además, permite un exhaustivo seguimiento del proceso de rotura, por lo que se facilita el análisis de los resultados obtenidos. En un ensayo ?trapdoor? la carga última es función de la geometría del problema y de las propiedades del material, particularmente de su dilatancia. No obstante, los resultados de este trabajo muestran que el estado tensional del terreno determina, conjuntamente con el resto de parámetros del material, el proceso de rotura. Así, para situaciones con una relación entre la tensión horizontal y vertical superior a 0.5, se forma un primer arco estable de dimensiones reducidas que hace que se presente un mínimo en la carga de rotura, lo cual no ocurre en caso contrario. En consecuencia, se justifica que el estado tensional inicial del terreno incide claramente en la presión necesaria para estabilizar una excavación subterránea.