480 resultados para Browniano geométrico
Resumo:
Recientemente fue publicado un nuevo modelo geopotencial global, el EGM08. Este modelo ha mostrado una notable mejoría en la calidad de sus tres fuentes de datos; las observaciones del movimiento perturbado de los satélites artificiales,la altimetría por satélite y la gravimetría terrestre, por lo que se ha conseguido mejorar su precisión. En Puerto Rico, nuestra área de estudio, encontramos que al comprar las diferencias de los incrementos de la ondulación del geoide geométrico (calculado con medidas de campo) con los valores de los incrementos de la ondulación del geoide obtenidos utilizando estos modelos geopotenciales globales, la precisión del EGM08 fue ± 0,029 metros mientras que la precisión del EGM96 fue ± 0,055 metros. Estos resultados demuestran que en nuestra región, el modelo EGM08 ha presentado una mejoría considerable sobre su predecesor el EGM96 al momento de determinar los valores de los incrementos de la ondulación del geoide. Abstract: Recently, the new global geopotential model, the EGM08 was published. This model has shown a marked improvement in the quality of its three sources of data; the observations of the disturbed motion of artificial satellites, satellite altimetry and terrestrial gravity, so it has improved its precision. In our study area, Puerto Rico, we found that when we compare the differences of the increments of the geometric geoid undulation (computed with field data) with the values of the increments of the geoid undulation obtained using these models, the EGM08 accuracy was ± 0,029 meters, while the EGM96 accuracy was ± 0,055 meters. These results confirm that in our region, the EGM08 model has presented a significant improvement over its predecessor the EGM96 when determining the values of the increments of the geoid undulation.
Resumo:
In this article we research the design of detached breakwaters, a type of coastal defence work designed to combat erosion on beaches in a stable, sustainable fashion. Our aim is to formulate a functional and environmental (nonstructural) method of design that defines the fundamental characteristics of a detached breakwater as a function of the desired effect on the coast whilst meeting social demands and preserving or improving the quality of the littoral environment. We aim to make this method generally applicable by considering relations between variables of different natures (climatic, geomorphologic, and geometric) influencing the changes experienced on the coast after the detached breakwater has been built. We carried out the study of the relations between the different variables on the data from 19 actual, existing detached breakwaters on the Spanish Mediterranean coastline, and we followed a methodology based on the implementation of nondimensional monomials and on a search for relations of dependency between them. Finally, we discussed the results obtained and came up with a proposal for a design method that uses some of the graphic relations found between the variables studied and that achieves the main objective. For example, a case of a detached breakwater’s geometric presizing is solved as a practical demonstration of how the method is applied. La investigación que se presenta en este artículo aborda el diseño de los diques exentos, por constituir estos un tipo de obras de defensa costera con el que poder luchar de una forma estable y sostenible contra muchos de los problemas de erosión que existen en las playas. El objetivo principal de este trabajo es la formulación de un método de diseño funcional y ambiental (no estructural) que permita definir las características fundamentales de un dique exento en función del efecto que se quiera inducir en la costa, satisfaciendo las demandas sociales y preservando o mejorando la calidad del medio ambiente litoral. Además, se busca la aplicabilidad general del método mediante la consideración de relaciones entre variables de distinta naturaleza (climáticas, geomorfológicas y geométricas) que tienen influencia en los cambios que se experimentan en la costa tras la construcción del dique exento. El estudio de las relaciones entre las distintas variables se realiza sobre los datos de una base de diecinueve diques exentos reales, existentes en el litoral mediterráneo español, y sigue una metodología basada en el planteamiento de monomios adimensionales y en la búsqueda de relaciones de dependencia entre ellos. Finalmente, la discusión de los resultados obtenidos conduce a la propuesta de un método de diseño que utiliza algunas de las relaciones graficas encontradas entre las variables estudiadas y con el que se consigue el objetivo principal anteriormente expuesto. Para demostrar la aplicación práctica del método se resuelve un caso de predimensionamiento geométrico de un dique exento a modo de ejemplo.
Resumo:
En la presente tesis se propone un estudio del Pantheon, y en general de las cúpulas clásicas romanas, partiendo de la relación entre la bibliografía y documentación histórica, y el análisis geométrico y constructivo de algunos de los edificios considerados. La variedad de dimensiones, geometrías y sistemas constructivos aplicados en lugares y condiciones diferentes es muy grande. La información conservadas en los restos de estas arquitecturas suponen todavía una fuente por descubrir y explorar. Entre los múltiples aspectos que surgen al ocuparse del Pantheon y en general de cúpulas clásicas romanas, en este trabajo de tesis doctoral se elige enfocar principalmente el estudio en la geometría del intradós de las cúpulas. La potencialidad del hormigón romano se expresa con especial evidencia en el diseñ o y construcción de las superficies internas de las bóvedas, donde se persigue la experimentación de geometrías distintas. La comprensión de las técnicas constructivas empleadas para generar estas formas e incrementar sus dimensiones es sin duda una parte fundamental de la investigación, y se configura como un marco de conocimientos necesarios para el análisis de las cúpulas. El trabajo se desarrolla gracias a la aplicación de métodos de levantamiento indirecto actuales, que permiten la restitución métrica de objetos complejos con agilidad y precisión. Mediante el uso correcto de los instrumentos se consigue estudiar estructuras inaccesibles sin la necesidad de establecer un contacto directo con las superficies a medir. El uso del método de la fotogrametría digital de imágenes cruzadas y del escáner láser impulsan un continuo estudio crítico de los sistemas y una comparación directa entre ellos, generando paralelamente la información necesaria para poder aportar algunas consideraciones sobre la conformación de los objetos estudiados. La investigación se desarrolla, por tanto, entre el estudio comparado de las herramientas y de los sistemas de medición y el análisis geométrico-constructivo propio de las arquitecturas seleccionadas. La tesis abarca el estudio de las cúpulas clásicas romanas seleccionando una serie de edificios desde los primeros ejemplos del siglo II a.C. hasta las ultimas construcciones del siglo IV d.C.. Basándose en las características del conjunto de los edificios tratados, se estudia el desarrollo de esas formas constructivas en el tiempo y se reconoce en ellos la presencia de algunos elementos recurrentes. Además, la posibilidad de observar los restos antiguos conservados parcialmente o totalmente permite avanzar una hipotética clasificación de las geometrías de los intradoses de las cúpulas, poniéndola en relación con su propio desarrollo histórico. La cúpula del Pantheon precisa de un análisis particular y detallado. El estudio intenso de ese objeto arquitectónico tan sorprendente se perpetua desde hace numerosos siglos y el monumento todavía ofrece interrogantes abiertos. Un levantamiento arquitectónico actual del intradós de la cúpula puede generar material útil para realizar estudios sobre su conformación. Debido a la notoriedad del monumento, sus increíbles características y su perfecto estado de conservación, el Pantheon ha sido representado gráficamente desde hace siglos. Desde las primeras representaciones bidimensionales en planta, alzado y sección de época renacentista hasta las más modernas restituciones mediante escáner láser tridimensional, el Pantheon queda documentado por numerosos autores, que operan en épocas y con herramientas distintas. La posibilidad de confrontar las restituciones gráficas del mismo objeto a lo largo de un periodo de tiempo tan extenso, abre la investigación hacia un estudio comparativo de las técnicas de levantamiento de la antigüedad. Entre las bóvedas clásicas romanas, el Pantheon se considera la expresión máxima de las posibilidades de las técnicas y materiales, siendo al mismo tiempo parte de una cadena de evolución continua de la forma en construcción. Episodios de la historia de la arquitectura romana anteriores o posteriores al Pantheon se prestan para un análisis comparado. Como casos de estudio especifico se eligen el llamado Templo de Mercurio en Baia, cerca de Nápoles, la sala circular de las Termas con Heliocaminus en la Villa Adriana y el Mausoleo de Santa Constanza en Roma. Los tres ejemplos comparten el mismo principio constructivo y la forma supuestamente semiesférica del intradós de la cúpula, aun presentando características diferentes que dependen de sus funciones, dimensiones, época y sistemas de construcción. El método empleado en los estudios realizados es la fotogrametría digital de imágenes cruzadas, que precisa de herramientas y programas informáticos de fácil alcance para cualquier operador. La funcionalidad y eficacia de este sistema permite operar en condiciones desfavorables y perseguir la precisión de la medición. Mediante el empleo de la fotogrametría digital de imágenes cruzadas se consigue desarrollar con gran eficacia el trabajo de restitución de los ejemplos analizados. Únicamente en el caso del Pantheon, a la restitución fotogramétrica se suma un levantamiento mediante escáner láser tridimensional. El empleo del escáner láser permite registrar una enorme cantidad de información en tiempos muy reducidos, además de asegurar unos elementos de referencia útiles para la orientación y escala de los modelos fotogramétricos. Considerado el uso actual y eficiente del escáner láser en la documentación del patrimonio arquitectónico y arqueológico, su aplicación contribuye con fuerza al desarrollo de este trabajo de investigación. La descripción de las herramientas y de las técnicas empleadas para realizar las restituciones gráficas se considera parte del levantamiento, como documentación fiel del trabajo realizado y, como consecuencia, de las medidas obtenidas. Por estas razones se dedica un apartado de la tesis a la explicación de las fases de los trabajos de restitución y a la descripción de las características técnicas de las herramientas empleadas para ello. Los programas informáticos integrados posibilitan la comparación entre los resultados para verificar la aproximación y exactitud de las restituciones. Se presta atención a la comparación entre distintos levantamientos de un mismo objeto realizados con un solo sistema, pero en repetidas fases, o con distintos sistemas y herramientas. Es de especial interés la comparación entre los resultados de los levantamientos del intradós de la cúpula del Pantheon realizados mediante fotogrametría digital de imágenes cruzadas y con el escáner láser tridimensional. Una observación crítica de los datos generales asícomo de los detalles de los modelos de restitución ofrece material suficiente para formular alguna consideración acerca de dos métodos de levantamiento muy distintos. Como en todo proceso de levantamiento parte de la exactitud de los resultados depende de la labor critica, interpretativa y manual del operador. El análisis contrastado entre las distintas versiones de restitución de un mismo objeto es útil para una mejor aproximación a las medidas reales. Para poder efectuar los análisis geométricos del intradós de las cúpulas, se introduce una fase de estudio critico de los datos derivados de los levantamientos. La investigación se basa en la búsqueda de un modelo geométrico que se aproxime a los puntos levantados y que se genere a partir de unos rigurosos cálculos de promedios. Del modelo de restitución de puntos, que mantiene las irregularidades propias del objeto construido, se pasa a la creación de un modelo regular definido por claras leyes geométricas. La comparación directa entre las posiciones individuales de los puntos levantados y el modelo geométrico contribuyen a la comprensión del objeto de estudio, detectando irregularidades o deformaciones donde existan, y ofreciendo unos datos objetivos y cuantificables. Los análisis desarrollados evidencian la importancia de integrar la restitución métrica de los edificios con el estudio de su historia, geometría y construcción. El levantamiento como sistema de entendimiento integral de la arquitectura estimula la continua revisión de los resultados y el estudio comparado de la información derivada del análisis directo del edificio, mientras que la documentación conservada enriquece la investigación. Los trabajos de levantamiento y análisis realizados generan documentación nueva, ofreciendo un estudio crítico de la documentación disponible sobre los argumentos tratados y difundiendo el conocimiento de detalles del estado actual de las cúpulas estudiadas. Sin embargo, los interrogantes sobre los sistemas constructivos empleados para la construcción de las cúpulas estudiadas, y en particular del Pantheon, quedan irresolutos. La abundancia de los argumentos tratados permite la posible continuidad del trabajo, según una visión dinámica de la investigación como evolución ininterrumpida. En particular, las observaciones documentadas en este estudio abren el campo hacia un planteamiento transversal y multidisciplinar, que pueda profundizar el conocimiento de los edificios antiguos. El patrimonio de la arquitectura clásica estásujeto al deterioro en el tiempo, por lo que un estudio sobre su estado actual puede contribuir a manifestar necesidades reales, reflejando el vinculo directo existente entre conservación y levantamiento arquitectónico.
Resumo:
El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.
Resumo:
Introducción: Diversos cambios ocurren en el sistema cardiovascular materno durante el embarazo, lo que genera un gran estrés sobre este sistema especialmente durante el tercer trimestre, pudiendo acentuarse en presencia de determinados factores de riesgo. Los objetivos de este estudio fueron, valorar las adaptaciones cardiovasculares producidas por un programa específico de ejercicio físico; su seguridad sobre el sistema cardiovascular materno y los resultados del embarazo; y su eficacia en el control de los factores de riesgo cardiovascular. Material y métodos: El diseño del estudio fue un ensayo clínico aleatorizado. 151 gestantes sanas fueron evaluadas mediante un ecocardiograma y un electrocardiograma en la semana 20 y 34 de gestación. Un total de 89 gestantes participaron en un programa de ejercicio físico (GE) desde el primer hasta el tercer trimestre de embarazo, constituido principalmente por 25-30 minutos de trabajo aeróbico (55-60% de la frecuencia cardiaca de reserva), trabajo de fortalecimiento general y específico, y un trabajo de tonificación del suelo pélvico; desarrollado 3 días a la semana con una duración de 55-60 minutos cada sesión. Las gestantes aleatoriamente asignadas al grupo de control (GC; n=62) permanecieron sedentarias durante el embarazo. El estudio fue aprobado por el Comité Ético de investigación clínica del Hospital Universitario de Fuenlabrada. Resultados: Las características basales fueron similares entre ambos grupos. A diferencia del GC, las gestantes del GE evitaron el descenso significativo del gasto cardiaco indexado, entre el 2º y 3ºT de embarazo, y conservaron el patrón geométrico normal del ventrículo izquierdo; mientras que en el GC cambió hacia un patrón de remodelado concéntrico. En la semana 20, las gestantes del GE presentaron valores significativamente menores de frecuencia cardiaca (GC: 79,56±10,76 vs. GE: 76,05±9,34; p=0,04), tensión arterial sistólica (GC: 110,19±10,23 vs. GE: 106,04±12,06; p=0,03); tensión arterial diastólica (GC: 64,56±7,88 vs. GE: 61,81±7,15; p=0,03); tiempo de relajación isovolumétrica (GC: 72,94±14,71 vs. GE: 67,05±16,48; p=0,04); y un mayor tiempo de deceleración de la onda E (GC: 142,09±39,11 vs. GE: 162,10±48,59; p=0,01). En la semana 34, el GE presentó valores significativamente superiores de volumen sistólico (GC: 51,13±11,85 vs. GE: 56,21±12,79 p=0,04), de llenado temprano del ventrículo izquierdo (E) (GC: 78,38±14,07 vs. GE: 85,30±16,62; p=0,02) y de tiempo de deceleración de la onda E (GC: 130,35±37,11 vs. GE: 146,61±43,40; p=0,04). Conclusión: La práctica regular de ejercicio físico durante el embarazo puede producir adaptaciones positivas sobre el sistema cardiovascular materno durante el tercer trimestre de embarazo, además de ayudar en el control de sus factores de riesgo, sin alterar la salud materno-fetal. ABSTRACT Background: Several changes occur in the maternal cardiovascular system during pregnancy. These changes produce a considerable stress in this system, especially during the third trimester, which can be increased in presence of some risk factors. The aims of this study were, to assess the maternal cardiac adaptations in a specific exercise program; its safety on the maternal cardiovascular system and pregnancy outcomes; and its effectiveness in the control of cardiovascular risk factors. Material and methods: A randomized controlled trial was designed. 151 healthy pregnant women were assessed by an echocardiography and electrocardiography at 20 and 34 weeks of gestation. A total of 89 pregnant women participated in a physical exercise program (EG) from the first to the third trimester of pregnancy. It consisted of 25-30 minutes of aerobic conditioning (55-60% of their heart rate reserve), general and specific strength exercises, and a pelvic floor muscles training; 3 times per weeks during 55-60 minutes per session. Pregnant women randomized allocated to the control group (CG) remained sedentary during pregnancy. The study was approved by the Research Ethics Committee of Hospital Universitario de Fuenlabrada. Results: Baseline characteristics were similar between groups. Difference from the CG, pregnant women from the EG prevented the significant decrease of the cardiac output index, between the 2nd and 3rd trimester of pregnancy, and preserved the normal left ventricular pattern; whereas in the CG shifted to concentric remodeling pattern. At 20 weeks, women in the EG had significant lower heart rate (CG: 79,56±10,76 vs. EG: 76,05±9,34; p=0,04), systolic blood pressure (CG: 110,19±10,23 vs. EG: 106,04±12,06; p=0,03); diastolic blood pressure (CG: 64,56±7,88 vs. EG: 61,81±7,15; p=0,03); isovolumetric relaxation time (GC: 72,94±14,71 vs. GE: 67,05±16,48; p=0,04); and a higher deceleration time of E Wave (GC: 142,09±39,11 vs. GE: 162,10±48,59; p=0,01). At 34 weeks, the EG had a significant higher stroke volume (CG: 51,13±11,85 vs. EG: 56,21±12,79 p=0,04), early filling of left ventricular (E) (CG: 78,38±14,07 vs. EG: 85,30±16,62; p=0,02) and deceleration time of E wave (CG: 130,35±37,11 vs. EG:146,61±43,40; p=0,04). Conclusion: Physical regular exercise program during pregnancy may produce positive maternal cardiovascular adaptations during the third trimester of pregnancy. In addition, it helps to control the cardiovascular risk factors without altering maternal and fetus health.
Resumo:
El concepto de funicularidad se puede extender a estructuras lineales espaciales como, por ejemplo, los puentes arco con tablero curvo. Estas estructuras, especialmente pasarelas peatonales, son consecuencia de la necesidad de encajar trazados exigentes y de dar respuesta a nuevas demandas arquitectónicas. En las estructuras curvas el diseño conceptual juega un papel absolutamente esencial. Siempre ha sido así, pero en el caso presente, cabe resaltar que una errónea elección de la geometría conlleva una serie de problemas que se irán acumulando a lo largo del proceso de proyecto, de la construcción y de la vida de la estructura. En este trabajo se presenta SOFIA (Shaping Optimal Form with an Interactive Approach), una herramienta capaz de, conocida la geometría del tablero, de buscar automáticamente la forma del arco antifunicular correspondiente. El planteamiento seguido es conceptualmente el mismo que el utilizado en la búsqueda de formas óptimas en estructuras en dos dimensiones: el arco antifunicular es el que representa, para unas cargas dadas, el lugar geométrico de los puntos con momento flector nulo. La herramienta ha sido desarrollada en un entorno integrado, interactivo y paramético. Su implementación está ilustrada y unos ejemplos de análisis paramétricos están desarrollados. La posición transversal relativa entre tablero y arco ha sido investigada para obtener la configuración del puente estructuralmente más eficiente. Las pasarelas curvas se han convertido en un problema de ingeniería más común de lo habitual en el contexto de los desarrollos urbanos cuando el cliente está buscando un fuerte componente estético: un diseño conceptual adecuado permite obtener una estructura eficiente y elegante. Spatial arch bridges represent an innovative answer to demands on functionality, structural optimization and aesthetics for curved decks, popular in urban contexts. This thesis presents SOFIA (Shaping Optimal Form with an Interactive Approach), a methodology for conceptual designing of antifunicular spatial arch bridges with curved deck in a parametric, interactive and integrated environment. The approach and its implementation are in-depth described and detailed examples of parametric analyses are illustrated. The optimal deck-arch relative transversal position has been investigated for obtaining the most cost-effective bridge. Curved footbridges have become a more common engineering problem in the context of urban developments when the client is looking for a strong aesthetics component: an appropriate conceptual design allows to obtain an efficient and elegant structure.
Resumo:
Este proyecto trata de diseñar el sistema eléctrico y de control de potencia de una maqueta del túnel aerodinámico ACLA-16 de la Universidad Politécnica de Madrid (UPM). Dicha maqueta se utiliza para estudiar el efecto de la capa límite atmosférica, debido a su importancia en el impacto sobre estructuras civiles. Primero se desarrolla una parte teórica sobre qué son los túneles aerodinámicos, las aplicaciones que tienen y conceptos básicos acerca de la capa límite atmosférica. Luego se analiza el diseño geométrico de la maqueta del túnel y se detallan los elementos que debe tener el sistema eléctrico. Además, se realiza una simulación por ordenador con un programa de CFD (Fluent) para comparar los resultados experimentales reales con los resultados numéricos de la simulación para comprobar si se pueden extraer resultados aceptables por ordenador y así ahorrar costes y tiempo en el estudio de ensayos.
Resumo:
Un escenario habitualmente considerado para el uso sostenible y prolongado de la energía nuclear contempla un parque de reactores rápidos refrigerados por metales líquidos (LMFR) dedicados al reciclado de Pu y la transmutación de actínidos minoritarios (MA). Otra opción es combinar dichos reactores con algunos sistemas subcríticos asistidos por acelerador (ADS), exclusivamente destinados a la eliminación de MA. El diseño y licenciamiento de estos reactores innovadores requiere herramientas computacionales prácticas y precisas, que incorporen el conocimiento obtenido en la investigación experimental de nuevas configuraciones de reactores, materiales y sistemas. A pesar de que se han construido y operado un cierto número de reactores rápidos a nivel mundial, la experiencia operacional es todavía reducida y no todos los transitorios se han podido entender completamente. Por tanto, los análisis de seguridad de nuevos LMFR están basados fundamentalmente en métodos deterministas, al contrario que las aproximaciones modernas para reactores de agua ligera (LWR), que se benefician también de los métodos probabilistas. La aproximación más usada en los estudios de seguridad de LMFR es utilizar una variedad de códigos, desarrollados a base de distintas teorías, en busca de soluciones integrales para los transitorios e incluyendo incertidumbres. En este marco, los nuevos códigos para cálculos de mejor estimación ("best estimate") que no incluyen aproximaciones conservadoras, son de una importancia primordial para analizar estacionarios y transitorios en reactores rápidos. Esta tesis se centra en el desarrollo de un código acoplado para realizar análisis realistas en reactores rápidos críticos aplicando el método de Monte Carlo. Hoy en día, dado el mayor potencial de recursos computacionales, los códigos de transporte neutrónico por Monte Carlo se pueden usar de manera práctica para realizar cálculos detallados de núcleos completos, incluso de elevada heterogeneidad material. Además, los códigos de Monte Carlo se toman normalmente como referencia para los códigos deterministas de difusión en multigrupos en aplicaciones con reactores rápidos, porque usan secciones eficaces punto a punto, un modelo geométrico exacto y tienen en cuenta intrínsecamente la dependencia angular de flujo. En esta tesis se presenta una metodología de acoplamiento entre el conocido código MCNP, que calcula la generación de potencia en el reactor, y el código de termohidráulica de subcanal COBRA-IV, que obtiene las distribuciones de temperatura y densidad en el sistema. COBRA-IV es un código apropiado para aplicaciones en reactores rápidos ya que ha sido validado con resultados experimentales en haces de barras con sodio, incluyendo las correlaciones más apropiadas para metales líquidos. En una primera fase de la tesis, ambos códigos se han acoplado en estado estacionario utilizando un método iterativo con intercambio de archivos externos. El principal problema en el acoplamiento neutrónico y termohidráulico en estacionario con códigos de Monte Carlo es la manipulación de las secciones eficaces para tener en cuenta el ensanchamiento Doppler cuando la temperatura del combustible aumenta. Entre todas las opciones disponibles, en esta tesis se ha escogido la aproximación de pseudo materiales, y se ha comprobado que proporciona resultados aceptables en su aplicación con reactores rápidos. Por otro lado, los cambios geométricos originados por grandes gradientes de temperatura en el núcleo de reactores rápidos resultan importantes para la neutrónica como consecuencia del elevado recorrido libre medio del neutrón en estos sistemas. Por tanto, se ha desarrollado un módulo adicional que simula la geometría del reactor en caliente y permite estimar la reactividad debido a la expansión del núcleo en un transitorio. éste módulo calcula automáticamente la longitud del combustible, el radio de la vaina, la separación de los elementos de combustible y el radio de la placa soporte en función de la temperatura. éste efecto es muy relevante en transitorios sin inserción de bancos de parada. También relacionado con los cambios geométricos, se ha implementado una herramienta que, automatiza el movimiento de las barras de control en busca d la criticidad del reactor, o bien calcula el valor de inserción axial las barras de control. Una segunda fase en la plataforma de cálculo que se ha desarrollado es la simulació dinámica. Puesto que MCNP sólo realiza cálculos estacionarios para sistemas críticos o supercríticos, la solución más directa que se propone sin modificar el código fuente de MCNP es usar la aproximación de factorización de flujo, que resuelve por separado la forma del flujo y la amplitud. En este caso se han estudiado en profundidad dos aproximaciones: adiabática y quasiestática. El método adiabático usa un esquema de acoplamiento que alterna en el tiempo los cálculos neutrónicos y termohidráulicos. MCNP calcula el modo fundamental de la distribución de neutrones y la reactividad al final de cada paso de tiempo, y COBRA-IV calcula las propiedades térmicas en el punto intermedio de los pasos de tiempo. La evolución de la amplitud de flujo se calcula resolviendo las ecuaciones de cinética puntual. Este método calcula la reactividad estática en cada paso de tiempo que, en general, difiere de la reactividad dinámica que se obtendría con la distribución de flujo exacta y dependiente de tiempo. No obstante, para entornos no excesivamente alejados de la criticidad ambas reactividades son similares y el método conduce a resultados prácticos aceptables. Siguiendo esta línea, se ha desarrollado después un método mejorado para intentar tener en cuenta el efecto de la fuente de neutrones retardados en la evolución de la forma del flujo durante el transitorio. El esquema consiste en realizar un cálculo cuasiestacionario por cada paso de tiempo con MCNP. La simulación cuasiestacionaria se basa EN la aproximación de fuente constante de neutrones retardados, y consiste en dar un determinado peso o importancia a cada ciclo computacial del cálculo de criticidad con MCNP para la estimación del flujo final. Ambos métodos se han verificado tomando como referencia los resultados del código de difusión COBAYA3 frente a un ejercicio común y suficientemente significativo. Finalmente, con objeto de demostrar la posibilidad de uso práctico del código, se ha simulado un transitorio en el concepto de reactor crítico en fase de diseño MYRRHA/FASTEF, de 100 MW de potencia térmica y refrigerado por plomo-bismuto. ABSTRACT Long term sustainable nuclear energy scenarios envisage a fleet of Liquid Metal Fast Reactors (LMFR) for the Pu recycling and minor actinides (MAs) transmutation or combined with some accelerator driven systems (ADS) just for MAs elimination. Design and licensing of these innovative reactor concepts require accurate computational tools, implementing the knowledge obtained in experimental research for new reactor configurations, materials and associated systems. Although a number of fast reactor systems have already been built, the operational experience is still reduced, especially for lead reactors, and not all the transients are fully understood. The safety analysis approach for LMFR is therefore based only on deterministic methods, different from modern approach for Light Water Reactors (LWR) which also benefit from probabilistic methods. Usually, the approach adopted in LMFR safety assessments is to employ a variety of codes, somewhat different for the each other, to analyze transients looking for a comprehensive solution and including uncertainties. In this frame, new best estimate simulation codes are of prime importance in order to analyze fast reactors steady state and transients. This thesis is focused on the development of a coupled code system for best estimate analysis in fast critical reactor. Currently due to the increase in the computational resources, Monte Carlo methods for neutrons transport can be used for detailed full core calculations. Furthermore, Monte Carlo codes are usually taken as reference for deterministic diffusion multigroups codes in fast reactors applications because they employ point-wise cross sections in an exact geometry model and intrinsically account for directional dependence of the ux. The coupling methodology presented here uses MCNP to calculate the power deposition within the reactor. The subchannel code COBRA-IV calculates the temperature and density distribution within the reactor. COBRA-IV is suitable for fast reactors applications because it has been validated against experimental results in sodium rod bundles. The proper correlations for liquid metal applications have been added to the thermal-hydraulics program. Both codes are coupled at steady state using an iterative method and external files exchange. The main issue in the Monte Carlo/thermal-hydraulics steady state coupling is the cross section handling to take into account Doppler broadening when temperature rises. Among every available options, the pseudo materials approach has been chosen in this thesis. This approach obtains reasonable results in fast reactor applications. Furthermore, geometrical changes caused by large temperature gradients in the core, are of major importance in fast reactor due to the large neutron mean free path. An additional module has therefore been included in order to simulate the reactor geometry in hot state or to estimate the reactivity due to core expansion in a transient. The module automatically calculates the fuel length, cladding radius, fuel assembly pitch and diagrid radius with the temperature. This effect will be crucial in some unprotected transients. Also related to geometrical changes, an automatic control rod movement feature has been implemented in order to achieve a just critical reactor or to calculate control rod worth. A step forward in the coupling platform is the dynamic simulation. Since MCNP performs only steady state calculations for critical systems, the more straight forward option without modifying MCNP source code, is to use the flux factorization approach solving separately the flux shape and amplitude. In this thesis two options have been studied to tackle time dependent neutronic simulations using a Monte Carlo code: adiabatic and quasistatic methods. The adiabatic methods uses a staggered time coupling scheme for the time advance of neutronics and the thermal-hydraulics calculations. MCNP computes the fundamental mode of the neutron flux distribution and the reactivity at the end of each time step and COBRA-IV the thermal properties at half of the the time steps. To calculate the flux amplitude evolution a solver of the point kinetics equations is used. This method calculates the static reactivity in each time step that in general is different from the dynamic reactivity calculated with the exact flux distribution. Nevertheless, for close to critical situations, both reactivities are similar and the method leads to acceptable practical results. In this line, an improved method as an attempt to take into account the effect of delayed neutron source in the transient flux shape evolutions is developed. The scheme performs a quasistationary calculation per time step with MCNP. This quasistationary simulations is based con the constant delayed source approach, taking into account the importance of each criticality cycle in the final flux estimation. Both adiabatic and quasistatic methods have been verified against the diffusion code COBAYA3, using a theoretical kinetic exercise. Finally, a transient in a critical 100 MWth lead-bismuth-eutectic reactor concept is analyzed using the adiabatic method as an application example in a real system.
Resumo:
El objetivo de esta investigación es el análisis del método utilizado en los proyectos de Julio Cano Lasso y la búsqueda de relaciones de su obra con referencias externas a ella que ejemplifiquen lo que hemos denominado "método referencial" dentro de su metodología proyectual global. Este método referencial, que se relaciona claramente con modelos no lineales de creación como el "Atlas Mnemosyne" de Aby Warburg, los "PassagenWerk" de Walter Benjamin o el Teatro de la Memoria? de Giulio Camillo, es utilizado por el arquitecto no sólo de forma icónica, como catalizador del proyecto, sino también de forma instrumental, extrayendo de la referencia en cuestión estrategias válidas para su aplicación en la actividad proyectual. Para este fin, se utiliza el análisis comparativo a distintos niveles entre las herramientas usadas por Julio Cano Lasso en los sucesivos proyectos realizados, junto con Juan Antonio Ridruejo, entre los años 1968 y 1976 para las Oficinas Centrales de Telefónica en Fuentelarreina, Madrid. Estos tres proyectos, con un programa que va variando con el tiempo en distintas localizaciones dentro de una extensa parcela, se desarrollan partiendo de esquemas organizativos completamente diferentes. Paradójicamente, es debido a la aplicación de los mismos instrumentos proyectuales, obtenidos de la referencia a las ciudades históricas y a la arquitectura popular, como son la gradación en la tensión entre fragmentación y unidad, la dialéctica entre el edificio y el paisaje y la sustentabilidad como herramienta proyectual, por lo que resultan completamente diversos en el nivel morfológico. Los sucesivos proyectos presentan opciones antagónicas en el tratamiento de espacios abiertos y volúmenes construidos, en las posibilidades y formas de ampliación, en la materialidad, en la relación entre el interior y el exterior del propio edificio, en su diálogo con el contexto físico y en su orden geométrico. En cambio resultan completamente convergentes en su lectura exterior como edificios-ciudad y en su tratamiento de los sistemas de acondicionamiento climático tanto pasivos, derivados de la referencia a la arquitectura popular, como basados en la técnica, como principales generadores de la forma arquitectónica. Estas características, refiriéndonos a proyectos de esa época, fortalecen su vigencia como precursores del actual auge del paradigma termodinámico en arquitectura. Además, este tipo de referencia dentro de los "campos semánticos" manejados por Julio Cano Lasso, tiene la característica especial de utilizar un elemento mediador; la elaboración de los dibujos, que presentan distintos momentos de desarrollo en el tiempo de varias ciudades históricas. Los dibujos realizados a lo largo de sus años de ejercicio profesional, muchos de ellos publicados en su libro ?La ciudad y su paisaje? se convierten en el verdadero icono referencial del proyecto, pasando éste a ser un caso único de elaboración de la propia referencia por parte del arquitecto.
Resumo:
Se explicará el uso de la herramienta de simulación de sistemas acústicos y electroacústicos EASE®, en el diseño de una sala cine con sonido multicanal en formato digital 7.1 y THX. Se comenzará con la definición del modelo arquitectónico y geométrico, la validación de modelo a partir de características acústicas, la elección y ubicación del sistema de refuerzo electroacústico, la ecualización y ajuste del sistema electroacústico, la obtención de la respuesta temporal y la auralización de la sala con el sistema de sonido funcionando. La utilización de este tipo de herramientas de simulación permite realizar modificaciones en el diseño con un coste de tiempo muy razonable.
Resumo:
Frente al lugar común sobre el conocimiento y la apreciación crítica de esta obra de arquitectura, basado fundamentalmente en la referencia historiográfica a diversos modelos y en el supuesto entramado geométrico de un conjunto de elipses, a veces óvalos, se propone aquí una distinta interpretación de la estructura formal y espacial de la iglesia, deducida de una atención preferente a la obra de arquitectura utilizando los recursos específicamente disciplinares de la misma, en especial del dibujo, evidenciando la conveniencia de una constante revisión crítica de nuestra historiografía arquitectónica.
Resumo:
Se presenta en este artículo un programa para cálculo mediante ordenador, de utilización frecuente en el Departamento de Estudios Experimentales de Presas del Labo¬ratorio Central. Este programa se refiere a presas bóvedas asimétricas de tres centros y determina: a) el replanteo geométrico de las mismas para su construcción en modelo reducido. b) la posición -punto de aplicación y dirección- de las cargas puntuales equivalentes a las acciones de peso propio y presión hidrostática, que se introducen en el modelo median¬te gatos hidráulicos. c) la directriz de la presa, dato necesario para un posible cálculo estático posterior. This paper presents a computer program currently used in the Department of Experimental Studies of Dams in the Laboratorio Central. This program concerns asymmetric arch dams of three centers and it determines: a) The geometrical definition of the arch dams for the scaled model construction. b) The position, acting point and direction of the punctual loads equivalent to the actions of self-weight and water pressure, which are applied to the model by means of hydraulic jacks. c) The middle surface of the dam, which later would be introduced for a stress analy¬sis of the dam itself
Resumo:
En esta memoria estudiamos problemas geométricos relacionados con la Localización de Servicios. La Localización de Servicios trata de la ubicación de uno o más recursos (radares, almacenes, pozos exploradores de petróleo, etc) de manera tal que se optimicen ciertos objetivos (servir al mayor número de usuarios posibles, minimizar el coste de transporte, evitar la contaminación de poblaciones cercanas, etc). La resolución de este tipo de problemas de la vida real da lugar a problemas geométricos muy interesantes. En el planteamiento geométrico de muchos de estos problemas los usuarios potenciales del servicio son representados por puntos mientras que los servicios están representados por la figura geométrica que mejor se adapta al servicio prestado: un anillo para el caso de radares, antenas de radio y televisión, aspersores, etc, una cuña si el servicio que se quiere prestar es de iluminación, por ejemplo, etc. Estas son precisamente las figuras geométricas con las que hemos trabajado. En nuestro caso el servicio será sólo uno y el planteamiento formal del problema es como sigue: dado un anillo o una cuña de tamaño fijo y un conjunto de n puntos en el plano, hallar cuál tiene que ser la posición del mismo para que se cubra la mayor cantidad de puntos. Para resolver estos problemas hemos utilizado arreglos de curvas en el plano. Los arreglos son una estructura geométrica bien conocida y estudiada dentro de la Geometría Computacional. Nosotros nos hemos centrado en los arreglos de curvas de Jordán no acotadas que se intersectan dos a dos en a lo sumo dos puntos, ya que estos fueron los arreglos con los que hemos tenido que tratar para la resolución de los problemas. De entre las diferentes técnicas para la construcción de arreglos hemos estudiado el método incremental, ya que conduce a algoritmos que son en general más sencillos desde el punto de vista de la codificación. Como resultado de este estudio hemos obtenido nuevas cotas que mejoran la complejidad del tiempo de construcción de estos arreglos con algoritmos incrementales. La nueva cota Ο(n λ3(n)) supone una mejora respecto a la cota conocida hasta el momento: Ο(nλ4(n)).También hemos visto que en ciertas condiciones estos arreglos pueden construirse en tiempo Ο(nλ2(n)), que es la cota óptima para la construcción de estos arreglos. Restringiendo el estudio a curvas específicas, hemos obtenido que los arreglos de n circunferencias de k radios diferentes pueden construirse en tiempo Ο(n2 min(log(k),α(n))), resultado válido también para arreglos de elipses, parábolas o hipérbolas de tamaños diferentes cuando las figuras son todas isotéticas.---ABSTRACT--- In this work some geometric problems related with facility location are studied. Facility location deals with location of one or more facilities (radars, stores, oil wells, etc.) in such way that some objective functions are to be optimized (to cover the maximum number of users, to minimize the cost of transportation, to avoid pollution in the nearby cities, etc.). These kind of real world problems give rise to very interesting geometrical problems. In the geometric version of many of these problems, users are represented as points while facilities are represented as different geometric objects depending on the shape of the corresponding facility: an annulus in the case of radars, radio or TV antennas, agricultural spraying devices, etc. A wedge in many illumination or surveillance applications. These two shapes are the geometric figures considered in this Thesis. The formal setting of the problem is the following: Given an annulus or a wedge of fixed size and a set of n points in the plane, locate the best position for the annulus or the wedge so that it covers as many points as possible. Those problems are solved by using arrangements of curves in the plane. Arrangements are a well known geometric structure. Here one deals with arrangements of unbounded Jordan curves which intersect each other in at most two points. Among the different techniques for computing arrangements, incremental method is used because it is easier for implementations. New time complexity upper bounds has been obtained in this Thesis for the construction of such arrangements by means of incremental algorithms. New upper bound is Ο(nλ3(n)) which improves the best known up to now Ο(nλ4(n)). It is shown also that sometimes this arrangements can be constructed in Ο(nλ2(n)), which is the optimal bound for constructing these arrangements. With respect to specific type of curves, one gives an Ο(n2 min(log(k),α(n))), algorithm that constructs the arrangement of a set of n circles of k different radii. This algorithm is also valid for ellipses parabolas or hyperbolas of k different sizes when all of them are isothetic.
Resumo:
Escala expresada en varas valencianas y castellanas
Resumo:
El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.