18 resultados para TESIS DEL PROGRAMA DE ESTUDIOS DE POSTGRADO EN ARTES MENCION EN DIBUJO, PINTURA Y ESCULTURA

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, las Tecnologías de la Información y la Comunicación (TIC) son consideradas esenciales para la actividad laboral e, incluso en determinados contextos, insustituibles para la satisfacción de necesidades básicas, el acceso a la salud y a la educación, la modernización del Estado, la mejora de los servicios públicos y la toma de decisiones. El programa Willay se puso en marcha en 2007 con el objetivo de mejorar la gobernabilidad democrática local en dos zonas rurales de Perú (Acomayo en Cuzco y San Pablo en Cajamarca) mediante el uso de las TIC. Para ello, una de las actividades realizadas fue el despliegue de dos redes de telecomunicación inalámbricas de bajo coste que permiten el acceso a internet y dotan de telefonía IP a instituciones públicas (municipalidades, centros de salud, instituciones educativas y policía). El objetivo de este proyecto de fin de carrera consiste en la realización de la sistematización del componente de infraestructura dentro de las dos primeras fases del programa Willay. Sistematizar experiencias consiste en realizar una investigación que permita reconstruir e interpretar dichas experiencias. La ventaja de esta técnica frente a otras es que presta especial atención a las reflexiones de todas aquellas personas que han estado involucradas en el proyecto, tanto pertenecientes a las instituciones que lo han implementado como a las personas beneficiarias. Esta investigación permite obtener aprendizajes a partir del proyecto realizado, generar nuevos conocimientos y obtener pautas para mejorar la capacidad en la toma de decisiones. Para realizar esta sistematización, primero se ha realizado un estudio de distintas metodologías existentes y de distintos enfoques atendiendo a la naturaleza del programa sistematizado (TIC apropiadas, enfoque basado en derechos, etc.). Después de ello se procedió al levantamiento de información procedente de fuentes primarias y fuentes secundarias, realizándose un procesado y análisis posterior de toda la información recopilada. Para esta tarea se viajó a Perú, en concreto, a las distintas zonas donde se desarrolla la actividad del programa Willay. El resultado de todo ello, es un documento, parte III del presente proyecto fin de carrera, que incluye diferentes aspectos del programa Willay: contexto, actores que han intervenido, financiación del proyecto, diseño e implementación de las redes, actividades realizadas para garantizar la gestión y la sostenibilidad de esas redes, etc. Además se realiza un análisis de cuáles han sido los factores, tanto externos como internos, que han influido en el desarrollo del programa Willay. Todo ello permite generar una serie de recomendaciones de interés para proyectos similares. Estas recomendaciones abarcan desde el diseño, la implementación y la sostenibilidad de redes de telecomunicaciones hasta algunas relacionadas con la coordinación y financiación de programas similares y la participación de los beneficiarios. Finalmente, se ha realizado un análisis del proceso de sistematización, con el objetivo de realizar una aportación a los modelos ya desarrollados, ya que es una herramienta de investigación que todavía no está muy extendida. Todo esto permite presentar una serie de conclusiones que abarcan desde el propio proceso de sistematización como de las intervenciones relacionadas con el uso de las TIC para el desarrollo humano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El programa "ANISET" (Análisis de Niveles de Seguridad en Túneles) desarrollado por SINEX, S.A. constituye una herramienta de cálculo orientada a la realización de estudios de Fiabilidad de las estructuras de sostenimiento de túneles y galerías subterráneas. El desarrollo del Nuevo Método Austriaco de construcción de túneles (NATM) ha supuesto un gran avance de tecnificación en un tipo de obras tradicionalmente poco exigentes en lo que al cálculo de refiere. La aplicación de esta nueva metodología ha propiciado un gran desarrollo en la aplicación de métodos numéricos y de nuevos modelos de comportamiento para el estudio del problema de interacción terreno-sostenimiento. Sin embargo, la investigación en torno a procedimientos adecuados para la introducción de la seguridad en los cálculos no ha sido tan intensa, lo que ha creado un estado de cierta confusión entorno a este tema. Con este trabajo, se ha pretendido impulsar un avance en este terreno. Para ello se ha considerado que el mejor método era la aplicación de las técnicas de Fiabilidad Estructural en Nivel U, como de hecho se está realizando en muchos otros terrenos en el ámbito del cálculo estructural. Para realizar el programa, se ha tomado como base el modelo mecánico bidimensional desarrollado por P. Fritz (1984) que básicamente coincide con el aplicado en el programa SOSTENIM. En este modelo el terreno se considera un medio de comportamiento elastoplástico, de acuerdo al criterio de Mohr-Coulomb, sobre el que se realiza una excavación de sección circular. El sostenimiento se ha modelado teniendo en cuenta las aportaciones del hormigón proyectado, del acero de las armaduras y de las cerchas metálicas habitualmente utilizadas. Los Estados Límite considerados en el programa, para los cuales se han desarrollado las correspondientes funciones de fallo, son los siguientes: - Agotamiento de la capacidad resistente del terreno. Caracterizado por un radio de plastificación excesivo del terreno. - Agotamiento de la estructura, producido por la aparición de deformaciones superiores al máximo admisible por los materiales del sostenimiento. - Convergencia excesiva: el desplazamiento radial en el sostenimiento supera un máximo fijado por el proyectista en base a criterios prácticos de utilización, etc. El tratamiento de las incertidumbres para la estimación de los correspondientes índices de fiabilidad y probabilidades de fallo respecto a los 3 estados límite mencionados, responde básicamente al esquema propuesto por E. Rosenblueth (1981). Se espera que el enfoque eminentemente práctico dado al trabajo, y la sencillez de manejo del programa, permitan una fácil y útil aplicación del mismo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente comunicación se enmarca en el proyecto de tesis doctoral denominado «Criterios de diseño y caracterización de las cámaras de aireación, para el tratamiento y prevención de las humedades de capilaridad en edificios de interés patrimonial», que actualmente se está desarrollando dentro del programa de doctorado de Construcción y Tecnología Arquitectónicas de la ETSAM. La comunicación aborda el análisis de las soluciones tipo de cámaras de aireación en edificios históricos, ejecutadas en la zona centro de la península en los últimos 50 años, ciñéndose a las cámaras lineales de ventilación de las bases de los muros y cimentaciones. La revisión crítica resalta la importancia de los estudios previos para el diagnóstico, y del conocimiento que se requiere de ellos, para justificar objetivamente este tipo de soluciones, que suponen planteamientos agresivos para el monumento y son costosos a nivel económico; así como la necesidad de un seguimiento posterior a la ejecución para constatar su funcionamiento o mejora.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo demostrar que los programas de preservación del patrimonio, durante su fase de implementación, deben someterse a un análisis multidisciplinar que haga un balance de su ejecución. Dicho análisis permitirá identificar resultados significativos, capaces de fundamentar la rectificación de las bases conceptuales de la política pública en cuestión. Este reajuste podrá darse, por lo tanto, durante su vigencia y, de forma más relevante, posteriormente, sus motivos y resultados permitirán elaborar nuevas estrategias que serán aplicadas en futuros programas de intervención. Por otro lado se indagó, además, si las ciudades participantes en un programa nacional de preservación del patrimonio, regidas por normas y metas comunes, podrían alcanzar resultados diferentes. Para atender a estos objetivos, la investigación se encuentra enfocada a la realidad brasileña, siendo seleccionado como objeto de estudio el Programa Monumenta. Este Programa formó parte de la política pública cultural del Ministerio de Cultura con una importante implicación del Banco Interamericano de Desarrollo. Implementado a partir de 1999, procuró promover un proceso de recuperación urbana sostenible y de preservación del patrimonio de 26 Sitios Históricos Urbanos o Conjuntos de Monumentos Urbanos protegidos por el Instituto del Patrimonio Histórico y Artístico Nacional (Iphan). El Programa contó con el apoyo de la Unesco y del Iphan, así como con la participación de las Administraciones Municipales y/o Estatales, sectores privados y la sociedad civil. Las hipótesis planteadas en esta Tesis Doctoral fueron: (a) el análisis de los resultados en la fase de implementación de un programa de preservación del patrimonio es imprescindible, porque permite extraer conclusiones preliminares y orientar sus reformas; (b) los objetivos a corto plazo establecidos por el Programa Monumenta fueron alcanzados de modo diferenciado en las distintas ciudades beneficiadas; (c) a pesar de las diferencias, el Programa Monumenta presentó resultados preliminares positivos y significativos en la preservación del patrimonio histórico urbano brasileño. Los procedimientos metodológicos se centraron en un análisis cuantitativo, cualitativo y comparativo de los resultados alcanzados por tres ciudades beneficiadas por el Programa Monumenta, seleccionadas según su tamaño poblacional: Pelotas, Porto Alegre (Estado de Rio Grande do Sul) y São Francisco do Sul (Estado de Santa Catarina). Estos procedimientos fueron aplicados en los siguientes indicadores: utilización de los equipamientos culturales, características de la población y de los domicilios, variación de las actividades económicas, financiación destinada al sector privado para la recuperación de inmuebles y el fomento de la seguridad urbana. La Tesis ha englobado discusiones y conceptos abordados en las disciplinas de la Sociología Urbana, Geografía Urbana, Historia, Economía y Estadística de modo que se atribuye al objeto de investigación una visión interdisciplinar que ayudará a la comprensión de la teoría y la práctica preservacionistas. El análisis de la varianza, la regresión lineal y el análisis factorial fueron las herramientas estadísticas aplicadas sobre los datos con el objetivo de constatar la significación de los resultados y la relación de correspondencia entre algunas variables. Esta Tesis contribuye a la elaboración de una metodología analítica que puede ser aplicada en el cálculo de la superficie ocupada por las actividades económicas, con base en el método estadístico del Diagrama de Caja y Bigotes, de John Wilder Tukey. Las conclusiones corroboran las hipótesis planteadas y pretenden contribuir al diseño de las nuevas políticas públicas de preservación de sitios históricos de carácter urbano, enfatizando, con ello, la necesidad de evaluaciones más profundas de los resultados durante su fase de implementación. ---------------------------------------------------------------------------------- RESUMO--------------------------------------------------------------------------- A presente Tese apresenta como objetivo principal demonstrar que os programas de preservação do patrimônio histórico, durante a sua fase de implementação, necessitam de uma análise multidisciplinar sobre a sua execução. Essa análise permite identificar resultados significativos, capazes de fundamentar a retificação das bases conceituais da política pública em questão. A correção poderá, portanto, ser realizada tanto durante a sua vigência como posteriormente, ao permitir a elaboração de novas estratégias a serem aplicadas nos futuros programas de intervenção. Por outro lado, indagou-se se cidades participantes de um mesmo programa nacional de preservação do patrimônio histórico, regidas por normas e metas comuns, poderiam alcançar resultados não similares. Para atender tais objetivos, a investigação enfoca a realidade brasileira, tendo sido selecionado o Programa Monumenta como objeto de estudo. Esse Programa fez parte de uma política pública cultural do Ministério da Cultura, que atuou em parceria com o Banco Interamericano de Desenvolvimento. Implantado em nível nacional, a partir de 1999, visava promover um processo de recuperação urbana sustentável, bem como a preservação do patrimônio de 26 Sítios Urbanos Históricos ou Conjuntos de Monumentos Urbanos, protegidos pelo Instituto do Patrimônio Histórico e Artístico Nacional (Iphan). O Programa contou com o apoio da Unesco e do Iphan, além da participação das Administrações Municipais e/ou Estaduais, setores privados e sociedade civil. As hipóteses estabelecidas nesta Tese Doutoral foram: (a) a análise dos resultados na fase de implementação de um programa de preservação do patrimônio é imprescindível, pois permite extrair conclusões preliminares e orientar as suas reformulações; (b) os objetivos em curto prazo, estabelecidos pelo Programa Monumenta, foram alcançados de modo diferente pelas cidades beneficiadas; (c) apesar das diferenças, o Programa Monumenta apresentou resultados preliminares positivos e significativos sobre a preservação do patrimônio histórico urbano brasileiro. Os procedimentos metodológicos se centraram em análises quantitativa, qualitativa e comparativa dos resultados alcançados em três cidades beneficiadas pelo Programa Monumenta, selecionadas de acordo com o tamanho populacional: Pelotas, Porto Alegre (Estado do Rio Grande do Sul) e São Francisco do Sul (Estado de Santa Catarina). Esses procedimentos foram aplicados nos seguintes indicadores: utilização dos equipamentos culturais, características da população e dos domicílios, atividades econômicas, financiamento destinado ao setor privado para a recuperação dos imóveis e, ainda, o fomento da segurança urbana. A Tese inclui discussões e conceitos abordados nas disciplinas de Sociologia Urbana, Geografia Urbana, História, Economia e Estatística, de modo a atribuir ao objeto de investigação uma visão interdisciplinar e uma compreensão entre a teoria e a prática preservacionista. A análise de variância, regressão linear e análise fatorial foram as técnicas estatísticas aplicadas sobre os dados, com o objetivo de constatar a significação dos resultados e a relação de correspondência entre algumas variáveis. Esta Tese contribui com a elaboração de uma metodologia aplicada no cálculo da superfície ocupada pelas atividades econômicas, utilizando como método estatístico o Diagrama de Caixa e Bigodes, de John Wilder Tukey. As conclusões corroboram com as hipóteses estabelecidas e pretendem contribuir para o desenho de novas políticas públicas de preservação de sítios históricos de caráter urbano, enfatizando a necessidade de avaliações mais profundas dos resultados durante a sua fase de implementação. ---------------------------------------------------------------------------------- ABSTRACT ---------------------------------------------------------------------------------- The main goal of this PhD. Thesis is to demonstrate that a multidisciplinary analysis is needed during the implementation phase of preservation of heritage programmes. Such analysis allows the identification of significant results, which in turn can serve as the foundation for the conceptual bases of the public policy at hand. Thus, any corrections can be made both during the programme and afterward, by introducing new strategies to be applied in future intervention programmes. On the other hand, this project also asks whether cities participating in the same national preservation of heritage programme with common rules and goals can achieve distinct results. In order to meet these objectives, the project chose Brazil as its focus and Monumenta Programme for its object of study. This Programme is part of the Ministry of Culture’s public cultural policy, and was developed with cooperation by the Inter-American Development Bank. Implemented at the national level in 1999, the Programme aimed at promoting a process of sustainable urban renewal and the preservation of 26 urban historic sites or urban monumental ensembles, protected by the National Historic and Artistic Heritage Institute (IPHAN). UNESCO and IPHAN supported the Programme, and participants included municipal and state offices, private businesses, and local residents. The hypotheses established in this Doctoral Thesis were: (a) the analysis of the results in the implementation phase of a cultural public policy is imperative, because it enables preliminary conclusions to be drawn and orientate reforms; (b) the short-term objectives set out in the Monumenta Programme were achieved differently in the benefitted cities; (c) despite the differences, the Monumenta Programme displayed significant positive preliminary results in the conservation of the urban historic heritage in Brazil. Methodology procedures centered around quantitative, qualitative, and comparative analyses of the results achieved in three benefiting cities, selected according to population size: Pelotas, Porto Alegre (Rio Grande do Sul State) and São Francisco do Sul (Santa Catarina State). These procedures were applied to the following indicators: the use of the cultural facilities, characteristics of the population and the residential housing, variation of the economic activities, financing destined for the recovery of real estate, and promoting urban safety. The Thesis includes discussions and concepts addressed in urban sociology, urban geography, history, economics, and statistics, in order to examine the object of study with an interdisciplinary eye and an understanding between preservation theory and practice. Variance analysis, linear regression, and factorial analysis were the statistical techniques applied to the data, with the goal of defining the significance of the results and the correspondence ratio between some of the variables. This Thesis attempted to elaborate an applied methodology for calculating the space occupied by economic activities, using John Wilder Tukey's statistical method of Box-and-Whisker Plot. The conclusions corroborated the hypotheses established and are meant to contribute to the design of new public policies of historical site preservation in urban settings, emphasizing the need for deeper evaluations of the results during the implementation phase.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La productividad es un factor importante que influye en la viabilidad económica de un cultivo energético de sauce y maximizarla se convierte en un tema primordial. Esta investigación está directamente relacionada con dicha característica. La productividad varía según los clones cultivados, que pueden ser mejorados y seleccionados genéticamente. Los programas genéticos requieren de una información previa (productividad media en función del porte y número de los tallos, características de las hojas, resistencia a las plagas, etc.) que ayudará a obtener clones más productivos y resistentes. Por ello, nuestra investigación consta de dos estudios: (1) Evaluación de la eficiencia del uso de la luz o LUE (Light Use Efficiency). El incremento de biomasa y la eficiencia del uso de la luz (LUE) fue estudiado en 15 clones del genero Salix durante los meses de junio a septiembre de 2011 en Belleville (Central New York, USA). Los objetivos de este estudio fueron: (1) Evaluar la eficiencia del uso de la luz en la explicación a la variación en la producción de biomasa y (2) Determinar si existen diferencias significativas entre clones evaluando el índice de área foliar (LAI) y algunos componentes de las hojas (N, P, K,…). Se concluye que la variación de biomasa está relacionada con la cantidad de luz interceptada y con la eficiencia de su uso. Dicha información debe de ser transferida para ayudar a mejorar genéticamente los futuros clones a comercializar, con el fin de maximizar la productividad y aumentar la resistencia a plagas. (2) Estimación de biomasa a través de modelos de regresión. Los estudios de investigación relacionados con la productividad requieren estimaciones no destructivas de la biomasa aérea. Sin embargo, el nivel de precisión requerido y la inversión de tiempo son excesivos para operaciones comerciales con grandes extensiones (plantaciones de 10.000 ha). Por esta razón, se estudia el nivel de especificidad (específico, intermedio y general) en la toma de datos de campo sobre los mismos 15 clones (12 de ellos se pueden agrupar en 5 grupos según su genotipo origen) del genero Salix, empleados en el estudio anterior. Para todos los niveles estudiados se observaron diferencias significativas. Pero desde nuestro punto de vista, las diferencias obtenidas no son relevantes. Para validar los modelos finalmente seleccionados se calcularon los porcentajes de error entre la biomasa estimada por los modelos de regresión calculados y la biomasa real obtenida tras los pesajes de biomasa, todo ello se realizó para cada clon según nivel de especificidad. ABSTRACT Productivity is an important factor in the economic viability of a willow crop´s, therefore, maximize it becomes a major factor. This study is directly related to this feature. Productivity, among other factors, may vary depending on different clones, which can be improved and selected genetically. Genetic programs require prior information (average productivity, size and number of stems, leaf characteristics, resistance to pests, etc.) to help you get more productive clones resistant to local pests. Our research consists of two studies: (1) Evaluation of the efficiency of use of light (LUE, Light Use Efficiency). The increase of biomass and light use efficiency (LUE) was tested on 15 clones of the genus Salix during June and September 2011 in Belleville (Central New York, USA). The objectives of this study were: (1) evaluate the light use efficiency and its relationship with the variation in biomass production and (2) determine whether there are significant differences between clones evaluating the leaf area index (LAI) and some traits of the leaves (N, P, K). We studied the correlation with the light use efficiency. It is concluded that the variation of biomass was related to the amount of light intercepted and its efficiency. Such information must be transferred to help improve future genetically clones to market in order to maximize productivity and increase resistance to pests. (2) Estimation of biomass through regression models. Research studies related to productivity estimates require precision and non destructive biomass. However, the level of accuracy required and the investment of time are excessive for large commercial operations with extensions (plantations of 10,000 ha). Precisely for this reason, we study the level of specificity (specific, intermediate and general) in making field data on the same 15 clones (12 of them can be grouped into five groups according to their genotype origin) of the genus Salix, employees in the previous study. For all levels studied some significant differences were observed. But from our practical standpoint, the differences are not relevant. Finally, to validate the selected models, we calculated the percent of bias between estimated biomass (by the regression models) and real biomass obtained after the weighing of biomass, all this process was done for each clone by level of specificity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudio sobre la opinión de los estudiantes de la Facultad de Ciencias de la Actividad Física y del Deporte de la Universidad Politécnica de Madrid respecto a la implantación de los nuevos estudios de Grado conforme al EEES

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En plena implantación de los nuevos planes de estudio de acuerdo al EEES, las universidades se enfrentan a un nuevo modelo educativo basado en competencias: competencias específicas y competencias generales. Las competencias específicas están asociadas a la adquisición y desarrollo de conocimientos de un área en particular, mientras que las competencias generales son transversales al plan de estudios y definen capacidades, habilidades y/o aptitudes que el alumno debe desarrollar para aplicarlas a lo largo de su carrera profesional. El objetivo de este trabajo es proporcionar una guía al docente sobre las posibles mejoras para tratar el mayor número de competencias generales satisfactoriamente. Concretamente, se ha analizado la manera en la que los docentes están promoviendo y desarrollando las competencias generales con el objetivo de detectar carencias, mejoras y necesidades. El análisis se ha realizado sobre el profesorado de la Titulación de Graduado en Ingeniería del Software de la Universidad Politécnica de Madrid.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se presenta la implantación del método SIMPLET en un programa de elementos finitos basados en volúmenes de control. Este método toma en cuanta las variaciones de temperatura en la determinación del campo de presiones en problemas de convección libre, con el próposito de acelerar la convergencia y disminuir los tiempos de computación. El método SIMPLET, que originalmente ha sido propuesto en base al método de diferencias finitas con mallas desplazadas, se implemenen un programa de elementos finitos basados en volúmenes de control con mallas no desplazadas. Se resolvió un problema de convección libre en una cavidad cuadrada y los resultados obtenidos en términos del número de iteracciones y tiempo de computación se compararon se compararon con los resultados del método SIMPLE. Los resultados muestran que en este tipo de problemas el método SIMPLET es más rápido que le SIMPLE cuando el número de Rayleigh es bajo, mientras que para números de Rayleigh elevados, el desempeño de ambos métodos es similar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Maíz y trigo son los cereales más utilizados en piensos para aves. El maíz tiene menos proteína (7,7 vs. 11,2%) pero más energía (3.260 vs. 3.150 Kcal EMAn/kg) que el trigo (FEDNA, 2010). Además, el valor nutricional es más variable para el trigo que para el maíz Kim et al., 1976; Mollah et al., 1983). En pollos y en ponedoras, numerosos trabajos indican que el trigo puede ser utilizado en sustitución del maíz como ingrediente principal del pienso Mathlouthi et al., 2002; Carré et al., 2002; Lázaro et al., 2003; Pérez-Bonilla et al., 2011). Frikha et al. (2009), observaron que las pollitas alimentadas con maíz tenían mayores GMD pero IC similares que las pollitas alimentadas con trigo. La presentación del pienso afecta los rendimientos productivos en avicultura. Amerah et al. (2007) mostraron un aumento de la GMD y una mejora del IC en pollos alimentados con gránulos en comparación con los alimentados con harina. Gous y Morris (2001) observaron que pollitas alimentadas con migas de 1 a 4 sem y con gránulo de 5 a 20 sem de edad, consumieron 2% menos pienso pero pesaron un 6% más que las alimentadas con harina durante toda la recría. Frikha et al. (2009) observaron un incremento en la GMD en las pollitas alimentadas con gránulo respecto a las pollitas alimentadas con harina. Los autores no han encontrado información alguna sobre el efecto de alternar la presentación del pienso (bien en harina, bien en miga) durante las distintas etapas del periodo de recría (0-5, 5-10 y 10-17 sem de vida) sobre la productividad de las aves. El presente trabajo estudió la influencia del cereal base del pienso y de cambios en la presentación del mismo durante las 3 fases del programa de alimentación en recría sobre los parámetros productivos en pollitas de 1 a 17 semanas de edad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En nuestra cultura, asumimos el error como algo vergonzoso, como un resultado ajeno a nuestra consciente autoría. Normalmente queremos desentendernos de él, pues se suele asociar a que ha sido el resultado de un accidente involuntario. Sin embargo, también es cierto que se suele usar como un mecanismo que despierta nuestro humor, la curiosidad, el extrañamiento y la sorpresa. El error en nuestra cultura se esconde en inverosímiles mensajes que nos rodean. Si se toma como ejemplo los errores que se encierran en la serie humorística de dibujos animados "El-coyote-y-el-correcaminos"1, se puede descubrir las numerosas consecuencias y actitudes encriptadas donde el error participa. A modo resumen estos son cinco de los mensajes capturados donde los errores participan. 1- El Coyote, siempre hambriento, y con ganas de atrapar al Correcaminos, tiene una gran variedad de modos acercamiento y decisiones de caza. Las tácticas parecen perfectas pero siempre tienen un error que, aunque hacen que no lleguen a su fin, cada vez son más divertidas y locas. El Coyote se enfrenta continuamente al cómo hacerlo con una creatividad, tan abierta como errada. 2- El Correcaminos en cambio, inconscientemente es capaz de usar las trampas que construye el Coyote sin que estás funcionen. Sin saber que pueden atraparle, las usa como si supiera que el no va a errar. El Coyote en cambio es incapaz de hacer esto, y las trampas siempre se vuelven contra él. 3- El Coyote en ocasiones se ve inmiscuido en un proceso de construcción de trampas laborioso. Este proceso, a su vez, también suele estar cargado de errores. A pesar de que por ensayo y error termina haciendo las cosas como preveía, todo acaba saltando por los aires y no funciona. 4- Más allá de los fallos constructivos de las trampas de caza, el Coyote erra a menudo cuando piensa que es “normal”, es decir se da cuenta que no puede hacer unas series de cosas y finalmente no las hace. Por ejemplo, unas veces en medio del aire cae porque piensa que le afecta la gravedad, otras, justo cuando va a atrapar el Correcaminos se extraña por ser más rápido y al final no lo consigue. 5- Por último, el Coyote cansado de artilugios, recurre a la estrategia. Asume que el Correcaminos es más rápido que él y por ello le dibuja en una pared un túnel con una carretera. El Correcaminos entonces, utiliza el túnel o la carretera como uno ya existente se tratara. Mientras, el Coyote sorprendido intenta seguirlo pero no puede, se choca con la pared, cae en su propia trampa. De estos lugares que se encuentran en la cultura y donde campa el error, se sirve la tesis para localizar su correspondencia con la arquitectura. Por lo que se plantean estos contextos de estudio: 1- La historia de la arquitectura está llena de diferentes modos de hacer y tomar decisiones, de proyecto. Existen diversos planteamientos para enfrentarse a una teoría y una práctica. Todos parecen seguros y certeros, en cambio se tiene la convicción de que no es así. La historia de la arquitectura siempre ha sido tan caótica, divertida y llena de errores como son los autores que la construyen. De ahí que se plantee la búsqueda de los errores en el estudio de la teoría de los conocimientos y procesos lógicos que han guiado a la ciencia hasta donde estamos hoy, la búsqueda del error en la arquitectura a través del error en la epistemología. 2- En la cotidianidad de la arquitectura se "juntan" dibujos hechos en planta con los hechos en sección, se viaja por los planos buscando referencias de secciones, se buscan entradas o salidas, se llevan parcialidades de una planta a otra, se leen pies de plano para interpretar lo que ocurre, se dialoga sobre un proyecto buscando un concepto, se montan volúmenes de documentos que te lo dan en planta, se intentan comprender situaciones volumétricas de dibujos en hechos en "2d" o se intenta comprender un montaje gravitatorio. Situaciones donde somos conscientes y otras no, donde se pone en marcha un ejercicio mental de acoplamiento estructural de todas las partes que se “juntan”, a pesar de que estas entre sí no estén realmente relacionadas y sí llenas de errores. Aprovechándose de la confianza del intercambio de información, los errores se cuelan hasta el final y no llegamos a reconocerlos. 3- En la arquitectura uno de los modos más habituales de enfrentarse al proyecto es a través del método de ensayo y error, a través del cual se hacen continuos dibujos o maquetas, una y otra vez. En arquitectura es común necesitar de la insistencia para localizar algo, reiterar la búsqueda de un deseo. Cada una de ellas con modificaciones de la anterior, con nuevas posibilidades y tanteos. Afrontar este proceso más allá de lo que es enfrentarse a un error, encierra actitudes, voluntades, potencialidades y afecciones diferentes entre sí. A la vez, este ejercicio, suele ser personal, por lo que cada acción de ensayo y error es difícil que se deba a un sólo nivel de funcionamiento, hay factores que se escapan del control o de la previsibilidad. Aunque a priori parece que el proceso por ensayo y error en el hacer arquitectónico intenta eliminar el error, hay ocasiones donde éste desvela nuevas posibilidades. 4- Las fichas de patologías de los edificios en arquitectura suelen ser documentos técnicos que aluden a los problemas constructivos de manera directa; humedades, grietas, fisuras, desprendimientos. Errores constructivos que sin embargo se olvidan de lo que pueden ser “errores arquitectónicos”. Es decir, el proceso de construcción, la espacialidad, el programa, el contexto o la iluminación se pueden trabar erróneamente, pero no necesariamente con fallos constructivos. Errores arquitectónicos que no se suelen registrar como tal. Se cree que hay un mundo de arquitectura patológica que va más allá de la situación de la normalidad edificatoria que se suele tratar. Errores integrados en el hacer arquitectónico que han terminado por generar una arquitectura singular pero no excéntrica, anormal y difícilmente genérica. Arquitecturas creadas bajo un “error de vida”, las cuales demuestran que se pueden alcanzar equilibrios ajenos a los que la razón habitual impone en el hacer. 5- Es también común en la arquitectura, la capacidad de proyectar futuro a través de los diferentes campos de oportunidad que se generan. Las oportunidades unas veces las ofrecen las normativas, pero otras son los errores que estas tienen las que se convierten en resquicios para construir realidades que se escapan a sus rigideces. Alturas máximas, edificaciones límites, espacios libres, alineaciones de fachada, programa permitido…, normalmente leyes de control que se imponen en la ciudad y que a veces se convierten en un modo de dominación. Reglas que antes de su puesta en funcionamiento se creen cerradas y lógicas e infranqueables, pero en su puesta en uso, empiezan a errar. Los resultados no salen como debían, y las palabras son interpretadas de forma diferente, por lo que el usuario empieza a aprovecharse de estos errores como vía de escape sobre ellas. Una vez planteados estos cinco lugares vinculados a sistemas arquitectónicos y que a la vez encierran de alguna forma la mirada positiva que en ocasiones la cultura ofrece, cabría ser más específicos y plantearse la pregunta: .Como el error ha sido y puede ser productivo en la arquitectura? Para responder en estos cinco contextos descritos y habituales en el hacer arquitectónico, se crean cinco “planos secuencia” como respuesta. Que usados como técnica de planificación de un pensamiento, permiten responder sin cortes y durante un tiempo prolongado reflexiones concatenadas entre sí. De este modo, los cinco planos secuencias son respuestas a la pregunta pero desde distintos ámbitos. Respuestas donde los resultados del error no avergüenzan a la arquitectura, sino que animan a usarlo, a experimentar con ello. Los planos secuencias son una cantera que contiene las marcas de los errores, tanto de un pasado como de un futuro inmanente. Un modo de ordenar la información, donde el tiempo no es una marca de linealidad cronológica, sino la búsqueda hacia delante y hacia atrás de la maduración de un concepto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis aborda el estudio de los distintos regímenes de neutro de las instalaciones de baja tensión, comúnmente llamados sistemas de puesta a tierra, desde un doble punto de vista, con el objetivo final de establecer un estándar justificado para un posterior desarrollo normativo, y de diseño que facilite la operación y funcionamiento de la instalación eléctrica y de comunicaciones en los sistemas hospitalarios. En una primera parte de la tesis se detallará que aunque hay muchos estudios teórico-prácticos sobre la elección del régimen de neutro en base a criterios operativos y puramente eléctricos, criterios como seguridad frente a accidentes eléctricos, o en términos de disponibilidad, mantenimiento o fiabilidad, esas recomendaciones no se han trasladado de manera directa a la legislación española salvo en el caso de Salas de Intervención donde se obliga a un sistema IT. Por eso se justificará como una primera técnica correctora de un inadecuado funcionamiento electromagnético en Hospitales el establecer una propuesta de marco normativo donde se fijen los tipos de puesta a tierra en función del uso y tipología del edificio desde un punto de vista eléctrico Por otra parte, la influencia de los distintos regímenes de neutro en la transmisión de señales (compatibilidad magnética) no ha sido estudiada en toda su profundidad, no existiendo ni marco normativo obligado ni estudios en profundidad sobre estas afecciones. Por tanto y en una segunda parte de la tesis se propondrá como medida correctora para mejorar el funcionamiento electromagnético de un hospital qué el régimen de neutro TN-S es más respetuoso con el funcionamiento de los equipos de electromedicina que alberga en su interior, estableciendo así mismo una propuesta de norma que regule este diseño. En definitiva se justifica que es posible generar por diseño inicial de la red eléctrica, mediante un régimen de neutro TN-S, un contexto electromagnético óptimo para el funcionamiento del sistema hospitalario que no se logra con otras opciones contempladas en la normativa española. ABSTRACT This thesis deals with the study of various ground grid systems of low voltage installations, commonly called grounding systems, from two points of view, with the ultimate goal of establishing a standard justified from a policy perspective and design to facilitate the operation and functioning of the electrical system and hospital communications systems. In the first part of the thesis will be detailed that although there are many theoretical and practical studies on the choice of the neutral system based on operational criteria and purely electric, criteria such as safety against electrical accidents, or in terms of availability, maintenance and reliability, these recommendations have not been transferred directly to the Spanish legislation except in Intervention Rooms where a IT system is required. So be justified as a first corrective technique improper operation electromagnetic Hospitals proposal to establish a regulatory framework where ground types depending on the use and type of building are set from an electrical point of view . Moreover, the influence of the different regimes neutral signaling (magnetic compatibility) has not been studied in any depth, there being neither forced nor depth studies on these conditions regulatory framework. Thus in a second part of the thesis will be justified as a corrective measure to improve the electromagnetic performance of a hospital which the neutral TN-S is more respectful of the performance of medical electrical equipment housed in its interior, thus establishing same a proposed rule governing this design. Ultimately it is possible to generate justified by initial design of the grid, using a neutral system TN-S, electromagnetic optimal context for the operation of the hospital system is not achieved with other legal options in Spain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La importancia del proceso de dispersión de semillas en la estructura y dinámica de los ecosistemas es ampliamente reconocida. Sin embargo, para los bosques tropicales estacionalmente secos los estudios relacionados con este proceso son aún escasos y dispersos en comparación con los bosques tropicales lluviosos. En este trabajo se estudió la importancia de los síndromes de dispersión de semillas en la estructuración de comunidades, mediante el análisis de los patrones de dispersión de semillas en el espacio y tiempo para comunidades de leñosas en los bosques secos del suroccidente Ecuatoriano. Esta área forma parte de la región Tumbesina, una de las áreas de endemismo más importantes del mundo, pero también uno de los hotspots más amenazados. El clima se caracteriza por una estación seca que va de mayo a noviembre y una estación lluviosa que se extiende desde diciembre a abril. Para toda esta zona se estima una temperatura promedio anual entre 20° y 26°C y una precipitación promedio anual entre 300 y 700 mm. El trabajo de campo se desarrolló entre febrero de 2009 y septiembre de 2012. El primer paso fue la recopilación de información sobre las especies leñosas nativas de los bosques secos del suroccidente de Ecuador, que permitiera asignar a cada especie a un síndrome de dispersión para determinar el espectro de síndromes de dispersión de semillas. Luego, utilizando la información disponible de 109 parcelas establecidas previamente a lo largo de cuatro cantones de la provincia de Loja que conservan bosques secos en buen estado, se analizó la relación entre el síndrome de dispersión y condiciones ambientales. La relación de los síndromes de dispersión con los patrones espaciales de las especies y con los patrones de la lluvia y banco de semillas se estudió dentro de una parcela permanente de 9 ha, en la Reserva Ecológica Arenillas. Dentro de esta parcela se estableció un transecto de aproximadamente 3,4 km, que se recorrió mensualmente para colectar excretas de cérvidos y analizar el rol de este grupo como dispersor de semillas. Una gran variedad de plantas en los bosques secos tropicales del suroccidente de Ecuador requirió la asistencia de animales para la dispersión de semillas. Sin embargo, un análisis del espectro de dispersión considerando no solo la riqueza, sino también la abundancia relativa de especies, permitió determinar que a pesar de la alta variedad de especies zoócoras, la mayor parte de la comunidad correspondía a individuos anemócoros, que no proveen ninguna recompensa para la dispersión por animales. Este patrón puede deberse a la abundancia relativa de hábitats adecuados para especies con diferente síndrome de dispersión. Las condiciones ambientales afectaron la estructura del espectro de dispersión en la comunidad de bosque seco neotropical estudiada. El análisis de la importancia relativa del síndrome de dispersión y de la heterogeneidad espacial en la formación de patrones espaciales de árboles adultos permitió determinar que la heterogeneidad ambiental ejercía un efecto adicional (y en algunos el único) en la formación de patrones agregados de la mayoría de especies estudiadas. Los resultados señalaron diferencias en los patrones espaciales de las especies dependiendo del síndrome de dispersión, pero también una gran variación en los patrones espaciales incluso entre especies del mismo síndrome de dispersión. El análisis simultáneo de los patrones de la lluvia de semillas y banco de semillas de una comunidad de leñosas y su relación con la vegetación establecida indicaron que la lluvia de semillas era temporalmente variable en número de especies y abundancia de semillas, y dependía del síndrome de dispersión. El síndrome de dispersión también influyó en la formación de bancos de semillas, siendo las especies con capacidad de dispersión limitada (autócoras) las de mayor riqueza de especies y abundancia de semillas. Los cérvidos también se consideraron como un elemento clave en el proceso de dispersión de semillas. Al menos ocho especies leñosas fueron dispersadas legítimamente vía endozoócora. La mayoría de las especies dispersadas presentaron diásporas sin adaptaciones obvias para la dispersión, por lo que la ingestión de semillas por cérvidos se constituye en una vía potencial para la dispersión de sus semillas a largas distancias y, con ello, mejora la posibilidad de colonizar nuevos sitios y mantener el flujo genético. Los resultados de este estudio aportan nuevas evidencias para el entendimiento de la importancia de los procesos de dispersión de semillas en la estructura de los bosques secos neotropicales. Uno de los principales hallazgos a partir de estos cuatro capítulos es que los patrones espaciales de las especies, así como las estrategias que utilizan para dispersarse y hacer frente a las condiciones adversas (es decir, lluvia o banco de semillas) llevan consigo un efecto del síndrome de dispersión, y que la intensidad ese efecto depende a la vez de las condiciones ambientales del lugar. ABSTRACT The importance of seed dispersal process in the estructuring and ecosystem dynamic is widely recongnized. However, for seasonally tropical dry forest studies related to this process are still scarce and scattered compared to tropical rain forests. The present research deals with the importance of seed dispersal syndromes as a driver in the community structure, focusing its attention to temporal and spatial patterns of seed dispersal in woody communities of seasonally dry forest at Southwestern Ecuador. This area is part of the Tumbesian region, one of the most important areas of endemism, but also one of the most threatened areas around the world. Climate is characterized by a dry season from May to November, and a rainy season from December to April. For the whole area an average temperature between 20 ° and 26 ° C, and an average annual rainfall between 300 and 700 mm are estimated. Fieldwork was carried out between February 2009 and September 2012. During a first step information about native woody species of dry forests of southwestern Ecuador was gathered, enabling to assign a dispersal syndrome to each species to determine the seed dispersal spectrum. In a second step, available information from 109 established plots along four municipalities in Loja province, which hold the highest and best conserved dry forest remanants, was analyzed to establish the relationship between dispersal syndromes and environmental conditions. The relationships between dispersal syndromes and species spatial patterns; and between dispersal syndromes and seed rain and seed bank patterns, were studied within a permanent plot of 9 ha, in the Arenillas Ecological Reserve. Within this plot one transect of approximately 3.4 km was set to collect monthly deer droppings, which were used to latter analyze the rol of this group as seed dispersers. The results showed that a large variety of plants in tropical dry forest of Southwestern Ecuador require animal assistance to dispers their seeds. However, an analysis of seed dispersal spectrum considering not only species richness, but also the relative abundance of species, allowed to determine that despite the high variety of zoochorous species, most individuals in the community corresponds to anemochoruos species. This shift may be due to the relative abundance of habitats that are suitable for species with different dispersal syndromes. Moreover, quantitative data analysis showed that environmental conditions affect the structure of seed dispersal spectrum in the studied community. The analysis of relative importance of dispersal syndrome, and the environmental heterogeneity on formation of adult trees spatial patterns, indicated that environmental heterogeneity exert an additional (or was the only) effect limiting the distribution of most species in this forest. The findings showed differences in spatial patterns related to dispersal syndrome, but also showed a large variation in spatial patterns even among species sharing the same dispersal syndrome. Simultaneous analysis of seed rain and seed bank patterns of a woody community, and their relationship with established vegetation, suggested that seed rain is temporally variable in species number and seeds abundance, and that variation is related to the dispersal syndrome. Dispersal syndrome also influenced on the formation of seed banks, being species with limited dispersal abilities (autochorous) the ones with highest species richness and seed abundance. Deer were found as a key element in the seed dispersal process. At least to eight woody species were dispersed legitimately by ingestion. Diaspores of most dispersed species had no obvious adaptations to seed dispersal, therefore, seed ingestion by deer represents a potential pathway for long-distance dispersal, and hence, improves the chances to colonizing new sites and to maintain gene flow. Overall, these results provide new evidence for understanding the importance of seed dispersal processes in the structure of Neotropical dry forests. One of the major findings from these four chapters is that spatial patterns of species, and the strategies used to disperse their seeds and to deal with the adverse conditions (i.e. seed rain or seed bank) are related with dispersal syndromes, and the intensity of that relation depends in turn, on environmental conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El desarrollo de la psicología del deporte y su inserción en el fútbol, requiere de un trabajo exhaustivo y riguroso en los aspectos principales de su intervención. El psicólogo deportivo aplicado al fútbol profesional debe poner en marcha muchos modelos óptimos de trabajo, que en la práctica diaria debe modificar para buscar soluciones óptimas a cada situación que se le presenta. La finalidad de esta investigación fue diseñar y aplicar un programa integral de intervención psicológica en un equipo de fútbol profesional, desde la práctica profesional de un psicólogo deportivo. Para lograr este fin, se ha utilizado la metodología cualitativa. Para la recogida de datos se ha hecho uso de la observación, la entrevista, los test y las notas de campo. Para el análisis de datos se ha utilizado tanto el análisis cualitativo como el análisis cuantitativo. Participaron los 41 futbolistas profesionales que conformaron la primera plantilla de la A.D. Alcorcón, equipo que participó en la 2ª División “A” de la Liga Profesional de Fútbol de España en las temporadas 2010-2011, 2011-2012 y 2012-2013, con edades comprendidas entre 22 y 33 años (M=28.45; DT=2.91), 20 y 34 años (M=28.57; DT=3.41) y 21 y 36 años (M=27.29; DT= 4.55) respectivamente. También participaron: 7 integrantes del cuerpo técnico, 6 integrantes cuerpo médico y 18 integrantes de los “otros factores” (director deportivo, secretario técnico, directivos, trabajadores, etc.). Los resultados mostraron que el establecimiento de metas, el liderazgo y la cohesión entre los integrantes de la plantilla son aspectos fundamentales a tener en cuenta cuando se trabaja en un equipo de fútbol profesional. Asimismo, existen diferencias significativas (p<.01) de las expectativas de éxito en relación al rendimiento y los estados de ánimo no son predictores de rendimiento del equipo. Se concluye, que este modo de trabajar (con todos los miembros implicados en el equipo), puede aportar elementos de intervención importantes, los cuáles pueden ayudar a la búsqueda de un mejor rendimiento del equipo y que lleve a la obtención de óptimos resultados, en esta actividad tan compleja como es el fútbol. ABSTRACT The development of sport psychology and its insertion in football, requires a thorough and rigorous work on major aspects of their intervention. The sports psychologist applied to professional football should launch many optimal working models in daily practice must be modified to find optimal solutions to every situation that is presented. The purpose of this research was to design and implement a comprehensive program of psychological intervention in a professional football team from the professional practice of a sports psychologist. To this end, we used qualitative methodology. For data collection was done using observation, interviews, tests and field notes. For data analysis has been used both qualitative analysis and quantitative analysis. Participants included 41 professional players who formed the first group of the A.D. Alcorcon, a team that participated in the 2nd Division "A" Professional Football League of Spain in 2010-2011, 2011-2012 and 2012- 2013 seasons, aged between 22 and 33 years (M = 28.45, SD = 2.91), 20 and 34 years (M = 28.57, SD = 3.41) and 21 and 36 years (M = 27.29, SD = 4.55) respectively. Also participating: seven members of the coaching staff, 6 medical staff members and 18 members of the "other factors" (sport director, technical secretary, managers, workers, etc.). The results showed that goal setting, leadership and cohesion among members of the workforce are key aspects to consider when working on a professional football team. Furthermore, significant differences (p <.01) expectations regarding the performance success and the moods are not predictors of performance. It is concluded, that this way of working (with all members involved in the team) can contribute important elements of intervention, which can help the search for a better performance of the team and that leads to the obtaining of optimal results, in this activity as complex as it is football.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.