311 resultados para Geodesia.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el Campus Sur de la Universidad Politécnica de Madrid se ha llevado a cabo un proyecto para obtener una caracterización del subsuelo mediante ensayos ReMi, en colaboración con el departamento de Geofísica del Instituto Geográfico Nacional. La técnica ReMi (Refraction Microtremor) permite, mediante ensayos geofísicos realizados localmente sobre el terreno,obtener los parámetros físicos del mismo, que resultan de especial interés en el ámbito de la ingeniería civil. Esta técnica se caracteriza por englobarse dentro de la sísmica pasiva, muy empleada en prospección geofísica y basada en la obtención del modelo subyacente de distribución de velocidades de propagación de la onda S en función de la profundidad, con la ventaja de aprovechar el ruido sísmico ambiental como fuente de energía. Fue desarrollada en el Laboratorio Sismológico de Nevada (EEUU) por Louie (2001), con el objetivo de presentar una técnica innovadora en la obtención de las velocidades de propagación de manera experimental. Presenta ciertas ventajas, como la observación directa de la dispersión de ondas superficiales,que da un buen resultado de la velocidad de onda S, siendo un método no invasivo, de bajo coste y buena resolución, aplicable en entornos urbanos o sensibles en los que tanto otras técnicas sismológicas como otras variedades de prospección presentan dificultades. La velocidad de propagación de la onda S en los 30 primeros metros VS30, es ampliamente reconocida como un parámetro equivalente válido para caracterizar geotécnicamente el subsuelo y se halla matemáticamente relacionada con la velocidad de propagación de las ondas superficiales a observar mediante la técnica ReMi. Su observación permite el análisis espectral de los registros adquiridos, obteniéndose un modelo representado por la curva de dispersión de cada emplazamiento, de modo que mediante una inversión se obtiene el modelo de velocidad de propagación en función de la profundidad. A través de estos modelos, pueden obtenerse otros parámetros de interés sismológico. Estos resultados se representan sobre mapas isométricos para obtener una relación espacial de los mismos, particularmente conocido como zonación sísmica. De este análisis se extrae que la VS30 promedio del Campus no es baja en exceso, correspondiéndose a posteriori con los resultados de amplificación sísmica, período fundamental de resonancia del lugar y profundidad del sustrato rocoso. En última instancia se comprueba que los valores de amplificación sísmica máxima y el período al cual se produce posiblemente coincidan con los períodos fundamentales de resonancia de algunos edificios del Campus. ABSTRACT In South Campus at Polytechnic University of Madrid, a project has been carried out to obtain a proper subsoil description by applying ReMi tests, in collaboration with the Department of Geophysics of the National Geographic Institute. Through geophysical tests conducted locally, the ReMi (Refraction Microtremor) technique allows to establish the physical parameters of soil, which are of special interest in the field of civil engineering. This technique is part of passive seismic methods, often used in geophysical prospecting. It focuses in obtaining the underlying model of propagation velocity distribution of the shear wave according to depth and has the advantage of being able to use seismic ambient noise as a source of energy. It was developed in the Nevada Seismological Laboratory (USA) by Louie (2001) as an innovative technique for obtaining propagation velocities experimentally. It has several other advantages, including the direct observation of the dispersion of surface waves, which allows to reliably measure S wave velocity. This is a non-invasive, low cost and good resolution method, which can be applied in urban or sensitive environments where other prospection methods present difficulties. The propagation velocity of shear waves in the first 30 meters Vs30 is widely recognized as a valid equivalent parameter to geotechnically characterize the subsurface. It is mathematically related to surface wave's velocity of propagation, which are to observe using REMI technique. Spectral analysis of acquired data sets up a model represented by the dispersion curve at each site, so that, using an inversion process, propagation velocity model in relation to depth is obtained. Through this models, other seismologically interesting parameters can be obtained. These results are represented on isometric maps in order to obtain a spatial relationship between them, a process which is known as seismic zonation. This analysis infers that Vs30 at South Campus is not alarmingly low , corresponding with subsequent results of seismic amplification, fundamental period of resonance of soil and depth of bedrock. Ultimately, it's found that calculated values of soil's fundamental periods at which maximum seismic amplification occurs, may possibly match fundamental periods of some Campus buildings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta comunicación recibió la condición especial de ser destacada por el Comité Científico. A comienzos del siglo XX se empieza a implantar un novedoso medio de transporte en las grandes ciudades españolas: el metro. Aunque ya se había probado con éxito en otras ciudades europeas (Londres, Viena, París?), la expectación surgida en la capital era desmedida. En aquellos años Madrid se encontraba inmersa en un importante proceso de transformación que la convertiría décadas más tarde en una gran metrópoli. No obstante, en estos años de definición de su propia trama urbana la ciudad estaba colapsada por los tranvías y el creciente tráfico de automóviles. La Compañía Metropolitano Alfonso XIII, fundada por los ingenieros Miguel Otamendi, Antonio G. Echarte y Carlos Mendoza, consiguió materializar en un eficaz proyecto la idea de un nuevo tipo de transporte que discurría por debajo del nivel de calle. Este tipo de ferrocarril subterráneo planteó la aparición de unos nuevos parámetros espaciales que modificaron la percepción que los viajeros urbanos tenían de la metrópoli. Las bocas de metro se convirtieron enseguida en hitos en torno a los cuales se podían tomar referencias y orientarse en la trama urbana. La descontextualización del viaje respecto al entorno físico en el cual se produce ese desplazamiento direccional convirtió la experiencia de viajar a través del subsuelo en algo futurista para la época. Y con ello cambió la concepción de la ciudad, dejamos de percibirla en su totalidad para experimentarla de manera fragmentada por esos lapsos de tiempo que transcurren entre la entrada y la salida del metro. A través de los dibujos que Antonio Palacios Ramilo (Porriño 1874 ? Madrid 1945), arquitecto oficial de la Compañía, realizó para el diseño de las estaciones, vestíbulos y bocas de acceso podemos sentir la búsqueda constante de calidez y luminosidad como contraste frente a la imagen estereotipada fría y oscura de una caverna excavada bajo tierra. La introducción de la luz cenital en los vestíbulos, el recubrimiento de todas las superficies de tránsito con azulejos blancos que reflejan y multiplican la luz y el exquisito diseño de todos los detalles demuestran el interés del arquitecto por dignificar en todo momento estos nuevos espacios subterráneos, caracterizando con una identidad propia esta nueva tipología arquitectónica, y convirtiendo el viaje en metro en una experiencia sensorial innovadora. Abstract: n the early twentieth century Madrid was undergoing a major transformation that would make decades later in a large metropolis. However, in these years of defining its own urban grid the city was jammed with trams and the increasing car traffic. In 1919, the Com- pany Metropolitan Alfonso XIII, got into an effective project materialize the idea of a new type of transport that ran below the calle. Analizaremos experience as a paradigm shift in the trip meter without spatial reference. We will study the elements of this under- ground network and the relationships between them are generated: nodes , flows, transit spaces, waiting areas and up... And finally , will point to what extent the construction of this transport has influenced and modified the urban scene on the slope where the meter has become an element of our everyday life.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del presente proyecto es la obtención de una Ortoimagen del yacimiento arqueológico de la Guerra Civil Española de Los Yesares en Pinto, Madrid, para su estudio y valoración. El proyecto se realiza en colaboración con el equipo arqueológico cota 667, mediante los datos adquiridos por un dispositivo UAV proporcionado por la empresa Geotronics. Para alcanzar este objetivo principal se plantearon las siguientes tareas: -Creación del proyecto de vuelo. -Distribución en campo de las dianas para los puntos de apoyo y toma de coordenadas de estas mediante equipo GNSS. -Materialización del vuelo. Preparación del dispositivo de despegue, carga de los datos del vuelo en el UAV y lugar aterrizaje. -Procesado de las fotografías y datos obtenidos y obtención del producto final para proporcionar a los arqueólogos información cartográfica del yacimiento. Gracias a la rapidez y precisión de las nuevas herramientas de documentación geométrica tales como los equipos UAV o los equipos laser escáner, cada vez es más habitual su utilización en todo tipo de ámbitos, incluidos la documentación de elementos patrimoniales como es el caso de este proyecto. Por ello es esencial conocer estas nuevas herramientas, su correcta utilización y los diferentes flujos de trabajo para cada tipo de proyecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo trata de evaluar la capacidad de atracción turística de los Puntos de Interés oficiales (POIs) disponibles como datos geográficos abiertos y en las IDE locales mediante la información explícita e implícita de los Tweets geolocalizados. Los estudios sobre turismo tratan de obtener información del potencial turístico de una zona y la valoración de los turistas. Estos estudios tradicionalmente se basan en encuestas o entrevistas personales, realizadas desde entidades públicas o compañías privadas En el caso que nos ocupa existen estudios a nivel de Municipal, de la Comunidad autónoma y de entidades privadas relacionadas con el sector turístico de la cidudad de Madrid por estar considerado un sector estratégico para la economía regional. Las redes sociales, especialmente Twitter, ofrecen un alto potencial para la realización de trabajos de investigación y evaluación de áreas urbanas gracias a la información geográfica digital asociada. Se ha producido una evolución de la Información Geográfica Voluntaria (VGI) acuñada por Goodchild (2007) a la Información Geográfica de Medios Sociales (SMGI) acuñada por Floris y Campagna (2014). Esta nueva fuente de datos derivados, podria complementar la información de los datos públicos de turismo ofrecidos por nodos IDE u Open Data; por ejemplo: ayudaria a la validación de puntos de interés turístico o áreas de la ciudad, mejoraria la actualización de la información y a largo plazo, podria ayudar al desarrollo de estrategias y planes de turismo más eficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of this Master's Thesis is aimed at modeling active for estimating seismic hazard in Haití failures. It has been used zoned probabilistic method, both classical and hybrid, considering the incorporation of active faults as independent units in the calculation of seismic hazard. In this case, the rate of seismic moment is divided between the failures and the area seismogenetic same region. Failures included in this study are the Septentrional, Matheux and Enriquillo fault. We compared the results obtained by both methods to determine the importance of considering the faults in the calculation. In the first instance, updating the seismic catalog, homogenization, completeness analysis and purification was necessary to obtain a catalog ready to proceed to the estimation of the hazard. With the seismogenic zoning defined in previous studies and the updated seismic catalog, they are obtained relations Gutenberg-Richter recurrence of seismicity, superficial and deep in each area. Selected attenuation models were those used in (Benito et al., 2011), as the tectonic area of study is very similar to that of Central America. Its implementation has been through the development of a logical in which each branch is multiplied by an index based on the relevance of each combination of models. Results are presented as seismic hazard maps for return periods of 475, 975 and 2475 years, and spectral acceleration (SA) in structural periods: 0.1 - 0.2 - 0.5 - 1.0 and 2.0 seconds, and the difference accelerations between maps obtained by the classical method and the hybrid method. Maps realize the importance of including faults as separate items in the calculation of the hazard. The morphology of the zoned maps presented higher values in the area where the superficial and deep zone overlap. In the results it can determine that the minimum values in the zoned approach they outweigh the hybrid method, especially in areas where there are no faults. Higher values correspond to those obtained in fault zones by the hybrid method understanding that the contribution of the faults in this method is very important with high values. The maximum value of PGA obtained is close to Septentrional in 963gal, near to 460 gal in Matheux, and the Enriquillo fault line value reaches 760gal PGA in the Eastern segment and Western 730gal in the segment. This compares with that obtained in the zoned approach in this area where the value of PGA obtained was 240gal. These values are compared with those obtained by Frankel et al., (2011) with those have much similarity in values and morphology, in contrast to those presented by Benito et al., (2012) and the Standard Seismic Dominican Republic

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 12 de agosto de 2014, se registró un sismo de magnitud 5.1, a una profundidad focal de 4 km., en el segmento de falla Bellavista Catequilla, el mismo que fue registrado en 8 estaciones localizadas en la ciudad de Quito. Estas se encuentran ubicadas a distancias epicentrales entre 12 y 19 km. En este artículo se comparan las aceleraciones máximas obtenidas en campo libre, con las que se obtienen al emplear las ecuaciones de movimientos fuertes de Campbell y Borzognia (2013) y el de Zhao et al. (2006). Para ello previamente se determina un plano de ruptura del sismo, utilizando las ecuaciones propuestas por Leonard (2010) y la geometría de las fallas ciegas propuestas por Alvarado (2014). ABSTRACT: On August 12 th 2014, a magnitude 5.1 earthquake occurred at a depth of 4 km, in the Bellavista Catequilla fault segment. This event was recorded by 8 strong-motion stations located between 12 and 19 km from the epicenter, in the city of Quito. In this article, the maximum ground accelerations recorded in free field are compared with the accelerations estimated using the models by Campbell y Borzognia (2013) and Zh ao et al. (2006). To this end, the earthquake rupture plane is determined using the equations proposed by Leonard (2010) and the geometry of the blind fault system of Quito proposed by Alvarado (2014).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1587 un sismo de magnitud 6.4 asociado a las fallas ciegas de Quito, causó gran daño en la ciudad; esto es muy preocupante toda vez que existen estudios que indican que el período de recurrencia es de aproximadamente 200 años. Lo que implica que al 2014 debieron haberse producido dos sismos de igual magnitud, que gracias a Dios no ha sucedido, ya que las consecuencias habrían sido desastrosas porque buena parte de la ciudad se encuentra sobre estas fallas. Al no haberse registrado sismos de la magnitud indicada en los cuatro últimos siglos se tiene una gran acumulación de energía toda vez que la tasa de movimiento de estas fallas se encuentra entre los 3 y 4 mm al año. De tal manera que existe una gran probabilidad de tener un sismo muy fuerte. En estas condiciones es muy importante obtener espectros de respuesta elástica que se generarían por un sismo asociado a alguno de los segmentos de las fallas ciegas inversas de Quito y que mejor hacerlo con modelos de movimientos fuertes que han sido publicados en los últimos años y reconocidos a nivel mundial por la gran base de datos con la que fueron obtenidos. En este artículo se van a presentar tres modelos de movimientos fuertes y son los desarrollados por: Abrahamson, Silva y Kamai (2013); Campbell y Borzognia (2013); y el modelo de Zhao et al. (2006). Para cada uno de estos modelos se indican la base de datos y las ecuaciones que definen las ramas del espectro. Se destaca que estos modelos sirven también para encontrar leyes de atenuación del movimiento del suelo. Posteriormente como una aplicación se obtendrá espectros para cinco Parroquias del Centro Norte de Quito, a saber: Rumipamba, Belisario Quevedo, Mariscal Sucre, Iñaquito y Jipijapa; asociados al sismo máximo probable generados en el segmento de falla que está más cerca y es el denominado Ilumbisí-La Bota, con cada uno de los modelos indicados en el párrafo anterior y se encontrarán espectros ponderados para un nivel de confiabilidad del 84%. Las ordenadas espectrales que se hallan son mayores a las ordenadas espectrales que reporta la Norma Ecuatoriana de la Construcción de 2011 y los que se obtienen con los factores de sitio hallados en el estudio de Microzonificación Sísmica de Quito por ERN en el 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El modelo aplicado en el estudio, se basa en una metodología publicada en trabajos anteriores en bosques tropicales. El análisis se apoya en información obtenida con tecnología LiDAR aerotransportada y datos de censo de una mega-parcela forestal de 50 ha, en el Parque Nacional ?Yasuní? (PNY) en Ecuador. La metodología considera los hábitats topográficos, la distribución espacial de las parcelas de ajuste y validación en el diseño de muestreo y un modelo general para estimación de densidad de carbono. El modelo se ajusta usando técnicas de análisis de regresión lineal (R2=0,89, RMSE=8,67 MgC ha-1). Este enfoque metodológico hace posible calibraciones más precisas y permite cartografiar la distribución espacial de la biomasa sobre el suelo en alta resolución para una mejor estimación de las reservas de carbono en bosque tropical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We are witnessing a fundamental transformation in how Internet of Things (IoT) is having an impact on the experience users have with data-driven devices, smart appliances, and connected products. The experience of any place is commonly defined as the result of a series of user engagements with a surrounding place in order to carry out daily activities (Golledge, 2002). Knowing about users? experiences becomes vital to the process of designing a map. In the near future, a user will be able to interact directly with any IoT device placed in his surrounding place and very little is known on what kinds of interactions and experiences a map might offer (Roth, 2015). The main challenge is to develop an experience design process to devise maps capable of supporting different user experience dimensions such as cognitive, sensory-physical, affective, and social (Tussyadiah and Zach, 2012). For example, in a smart city of the future, the IoT devices allowing a multimodal interaction with a map could help tourists in the assimilation of their knowledge about points of interest (cognitive experience), their association of sounds and smells to these places (sensory-physical experience), their emotional connection to them (affective experience) and their relationships with other nearby tourists (social experience). This paper aims to describe a conceptual framework for developing a Mapping Experience Design (MXD) process for building maps for smart connected places of the future. Our MXD process is focussed on the cognitive dimension of an experience in which a person perceives a place as a "living entity" that uses and feeds through his experiences. We want to help people to undergo a meaningful experience of a place through mapping what is being communicated during their interactions with the IoT devices situated in this place. Our purpose is to understand how maps can support a person?s experience in making better decisions in real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mapping aboveground carbon density in tropical forests can support CO2 emissionmonitoring and provide benefits for national resource management. Although LiDAR technology has been shown to be useful for assessing carbon density patterns, the accuracy and generality of calibrations of LiDAR-based aboveground carbon density (ACD) predictions with those obtained from field inventory techniques should be intensified in order to advance tropical forest carbon mapping. Here we present results from the application of a general ACD estimation model applied with small-footprint LiDAR data and field-based estimates of a 50-ha forest plot in Ecuador?s Yasuní National Park. Subplots used for calibration and validation of the general LiDAR equation were selected based on analysis of topographic position and spatial distribution of aboveground carbon stocks. The results showed that stratification of plot locations based on topography can improve the calibration and application of ACD estimation using airborne LiDAR (R2 = 0.94, RMSE = 5.81 Mg?C? ha?1, BIAS = 0.59). These results strongly suggest that a general LiDAR-based approach can be used for mapping aboveground carbon stocks in western lowland Amazonian forests.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Según la Organización de Aviación Civil Internacional (OACI), las cartas aeronáuticas son un medio adecuado para el suministro de información aeronáutica de manera manejable, condensada y coordinada. Sobre esta cartografía temática los editores autorizados sintetizan datos específicos relacionados con la orientación espacial y la salvaguarda de la seguridad del vuelo. En consecuencia, se postulan como un recurso de referencia básico para la planificación, el control de tránsito aéreo y la propia navegación aérea. Mediante una indagación inicial, en la cual participaron más de 250 pilotos españoles de aviación civil, se revelaron múltiples ineficiencias en el sistema de comunicación gráfica de las cartas aeronáuticas. Su constatación nos lleva a plantear, como punto de partida, que las innovaciones metodológicas que puedan ser alcanzadas, en lo referente a la expresión gráfica de los modelos cartográficos para la navegación aérea, tendrán plena actualidad y recorrido en el contexto conceptual, tecnológico y científico de la información aeronáutica. En consecuencia, se plantea la necesidad de proponer estrategias o pautas de simbolización basadas en el estudio de la interferencia entre conjuntos de símbolos agrupados en distintos ámbitos o niveles de significado o realidad. El fin último es conseguir, en el caso de las cartas aeronáuticas complejas, una carga visual adecuada y ponderada que facilite y mejore la percepción e interpretación durante las labores de vuelo visual. Este propósito se ha materializado en el diseño de una serie de prototipos que tratan así de mejorar la comunicabilidad de las cartas aeronáuticas complejas, en términos de comprensión y legibilidad del mensaje portado. Para alcanzar este objetivo, la metodología propuesta ha sido dividida en tareas sucesivas: (a) caracterizar la utilización práctica de la información geo-aeronáutica, (b) concretar un conjunto limitado de cartas estereotipadas, (c) diseñar y aplicar una metodología para el análisis de la eficiencia comunicacional, (d) determinar la influencia perceptual provocada por la combinación de variables visuales en la representación y, finalmente, (e) el diseño y evaluación de un prototipo de mejora. Una vez analizado un conjunto de Cartas de Aproximación Visual (VAC) vigentes de ediciones características de distintas regiones y continentes, se ha constatado que la observancia de los distintos principios relativos a factores humanos es manifiestamente mejorable. Adicionalmente existe una llamativa diversidad al respecto entre las series de los distintos Servicios de Información Aeronáutica (AIS) autorizados; este hecho se ha sistematizado mediante una escala de grados, permitiendo así calcular la intensidad de cambio o diferencia existente en cada uno de los símbolos analizados con respecto a la especificación simbólica recomendada de OACI. A partir de la sistematización anterior, se ha alcanzado un estereotipado de tendencias de simbolización, permitiendo así elaborar una serie de modelos de representación cartográfica estereotipo. Aplicando algoritmos de saliencia, se han calculado las capacidades de prominencia visual y de atención temprana de cada uno de ellos. A su vez, mediante técnicas de seguimiento ocular, se han cotejado las cualidades comunicativas calculadas de forma teórica con las medidas en una actividad de lectura e interpretación, en la que participaron pilotos militares y profesionales de la información geográfica. Los resultados obtenidos permiten afirmar que es factible predecir de forma básica las capacidades de atención temprana de los objetos gráficos que componen una carta aeronáutica, posibilitando dirigir de forma planificada la atención visual del lector hacia determinados elementos y símbolos, según el propósito que tenga cada carta en particular. Adicionalmente se ha constatado que una adecuación en términos de contraste relacional y combinatoria de variables visuales mejora la eficiencia de los recorridos visuales, optimiza la duración de las fijaciones oculares y, como resultado, se reduce el tiempo de adquisición de la información en la lectura de las cartas aeronáuticas. En consecuencia, tomando en consideración los requerimientos de factores humanos como parámetros de calidad para que el lenguaje gráfico alcance una comunicabilidad adecuada, podemos afirmar que puede mejorarse la eficiencia comunicacional de las cartas aeronáuticas, en términos de velocidad, claridad y cantidad de información que se puede ser percibida y procesada con respecto al desempeño humano óptimo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se elabora una propuesta de especificaciones de producto de datos geográficos de planificación urbanística conforme a la Directiva 2007/2/CE (INSPIRE), ISO 19131 e ISO 19151, adaptada al caso de la Comunidad de Madrid y su Ley 9/2001, del suelo de la Comunidad de Madrid. Entre otros, se toma la Guía Técnica INSPIRE del tema "uso del suelo: planificación", proponiendo mejoras a este documento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La estimación de la biomasa de la vegetación terrestre en bosque tropical no sólo es un área de investigación en rápida expansión, sino también es un tema de gran interés para reducir las emisiones de carbono asociadas a la deforestación y la degradación forestal (REDD+). Las estimaciones de densidad de carbono sobre el suelo (ACD) en base a inventarios de campo y datos provenientes de sensores aerotransportados, en especial con sensores LiDAR, han conducido a un progreso sustancial en el cartografiado a gran escala de las reservas de carbono forestal. Sin embargo, estos mapas de carbono tienen incertidumbres considerables, asociadas generalmente al proceso de calibración del modelo de regresión utilizado para producir los mapas. En esta tesis se establece una metodología para la calibración y validación de un modelo general de estimación de ACD usando LiDAR en un sector del Parque Nacional Yasuní en Ecuador. En el proceso de calibración del modelo se considera el tamaño y la ubicación de las parcelas, la influencia de la topografía y la distribución espacial de la biomasa. Para el análisis de los datos se utilizan técnicas geoestadísticas en combinación con variables geomorfométricas derivadas de datos LiDAR, y se propone un esquema de muestreo estratificado por posiciones topográficas (valle, ladera y cima). La validación del modelo general para toda la zona de estudio presentó valores de RMSE = 5.81 Mg C ha-1, R2 = 0.94 y sesgo = 0.59, mientras que, al considerar las posiciones topográficas, el modelo presentó valores de RMSE = 1.67 Mg C ha-1, R2 = 0.98 y sesgo = 0.23 para el valle; RMSE = 3.13 Mg C ha-1, R2 = 0.98 y sesgo = - 0.34 para la ladera; y RMSE = 2.33 Mg C ha-1, R2 = 0.97 y sesgo = 0.74 para la cima. Los resultados obtenidos demuestran que la metodología de muestreo estratificado por posiciones topográficas propuesto, permite calibrar de manera efectiva el modelo general con las estimaciones de ACD en campo, logrando reducir el RMSE y el sesgo. Los resultados muestran el potencial de los datos LiDAR para caracterizar la estructura vertical de la vegetación en un bosque altamente diverso, permitiendo realizar estimaciones precisas de ACD, y conocer patrones espaciales continuos de la distribución de la biomasa aérea y del contenido de carbono en la zona de estudio. ABSTRACT Estimating biomass of terrestrial vegetation in tropical forest is not only a rapidly expanding research area, but also a subject of tremendous interest for reducing carbon emissions associated with deforestation and forest degradation (REDD+). The aboveground carbon density estimates (ACD) based on field inventories and airborne sensors, especially LiDAR sensors have led to a substantial progress in large-scale mapping of forest carbon stocks. However, these carbon maps have considerable uncertainties generally associated with the calibration of the regression model used to produce these maps. This thesis establishes a methodology for calibrating and validating a general ACD estimation model using LiDAR in Ecuador´s Yasuní National Park. The size and location of the plots are considered in the model calibration phase as well as the influence of topography and spatial distribution of biomass. Geostatistical analysis techniques are used in combination with geomorphometrics variables derived from LiDAR data, and then a stratified sampling scheme considering topographic positions (valley, slope and ridge) is proposed. The validation of the general model for the study area showed values of RMSE = 5.81 Mg C ha-1, R2 = 0.94 and bias = 0.59, while considering the topographical positions, the model showed values of RMSE = 1.67 Mg C ha-1, R2 = 0.98 and bias = 0.23 for the valley; RMSE = 3.13 Mg C ha-1, R2 = 0.98 and bias = - 0.34 for the slope; and RMSE = 2.33 Mg C ha-1, R2 = 0.97 and bias = 0.74 for the ridge. The results show that the stratified sampling methodology taking into account topographic positions, effectively calibrates the general model with field estimates of ACD, reducing RMSE and bias. The results show the potential of LiDAR data to characterize the vertical structure of vegetation in a highly diverse forest, allowing accurate estimates of ACD, and knowing continuous spatial patterns of biomass distribution and carbon stocks in the study area.