38 resultados para Multicriteria approval
Resumo:
The Pridneprovsky Chemical Plant was one of the largest uranium processing enterprises in the former USSR, producing a huge amount of uranium residues. The Zapadnoe tailings site contains most of these residues. We propose a theoretical framework based on multicriteria decision analysis and fuzzy logic to analyze different remediation alternatives for the Zapadnoe tailings, which simultaneously accounts for potentially conflicting economic, social and environmental objectives. We build an objective hierarchy that includes all the relevant aspects. Fuzzy rather than precise values are proposed for use to evaluate remediation alternatives against the different criteria and to quantify preferences, such as the weights representing the relative importance of criteria identified in the objective hierarchy. Finally, we suggest that remediation alternatives should be evaluated by means of a fuzzy additive multi-attribute utility function and ranked on the basis of the respective trapezoidal fuzzy number representing their overall utility.
Resumo:
La planificación de la movilidad sostenible urbana es una tarea compleja que implica un alto grado de incertidumbre debido al horizonte de planificación a largo plazo, la amplia gama de paquetes de políticas posibles, la necesidad de una aplicación efectiva y eficiente, la gran escala geográfica, la necesidad de considerar objetivos económicos, sociales y ambientales, y la respuesta del viajero a los diferentes cursos de acción y su aceptabilidad política (Shiftan et al., 2003). Además, con las tendencias inevitables en motorización y urbanización, la demanda de terrenos y recursos de movilidad en las ciudades está aumentando dramáticamente. Como consecuencia de ello, los problemas de congestión de tráfico, deterioro ambiental, contaminación del aire, consumo de energía, desigualdades en la comunidad, etc. se hacen más y más críticos para la sociedad. Esta situación no es estable a largo plazo. Para enfrentarse a estos desafíos y conseguir un desarrollo sostenible, es necesario considerar una estrategia de planificación urbana a largo plazo, que aborde las necesarias implicaciones potencialmente importantes. Esta tesis contribuye a las herramientas de evaluación a largo plazo de la movilidad urbana estableciendo una metodología innovadora para el análisis y optimización de dos tipos de medidas de gestión de la demanda del transporte (TDM). La metodología nueva realizado se basa en la flexibilización de la toma de decisiones basadas en utilidad, integrando diversos mecanismos de decisión contrariedad‐anticipada y combinados utilidad‐contrariedad en un marco integral de planificación del transporte. La metodología propuesta incluye dos aspectos principales: 1) La construcción de escenarios con una o varias medidas TDM usando el método de encuesta que incorpora la teoría “regret”. La construcción de escenarios para este trabajo se hace para considerar específicamente la implementación de cada medida TDM en el marco temporal y marco espacial. Al final, se construyen 13 escenarios TDM en términos del más deseable, el más posible y el de menor grado de “regret” como resultado de una encuesta en dos rondas a expertos en el tema. 2) A continuación se procede al desarrollo de un marco de evaluación estratégica, basado en un Análisis Multicriterio de Toma de Decisiones (Multicriteria Decision Analysis, MCDA) y en un modelo “regret”. Este marco de evaluación se utiliza para comparar la contribución de los distintos escenarios TDM a la movilidad sostenible y para determinar el mejor escenario utilizando no sólo el valor objetivo de utilidad objetivo obtenido en el análisis orientado a utilidad MCDA, sino también el valor de “regret” que se calcula por medio del modelo “regret” MCDA. La función objetivo del MCDA se integra en un modelo de interacción de uso del suelo y transporte que se usa para optimizar y evaluar los impactos a largo plazo de los escenarios TDM previamente construidos. Un modelo de “regret”, llamado “referencedependent regret model (RDRM)” (modelo de contrariedad dependiente de referencias), se ha adaptado para analizar la contribución de cada escenario TDM desde un punto de vista subjetivo. La validación de la metodología se realiza mediante su aplicación a un caso de estudio en la provincia de Madrid. La metodología propuesta define pues un procedimiento técnico detallado para la evaluación de los impactos estratégicos de la aplicación de medidas de gestión de la demanda en el transporte, que se considera que constituye una herramienta de planificación útil, transparente y flexible, tanto para los planificadores como para los responsables de la gestión del transporte. Planning sustainable urban mobility is a complex task involving a high degree of uncertainty due to the long‐term planning horizon, the wide spectrum of potential policy packages, the need for effective and efficient implementation, the large geographical scale, the necessity to consider economic, social, and environmental goals, and the traveller’s response to the various action courses and their political acceptability (Shiftan et al., 2003). Moreover, with the inevitable trends on motorisation and urbanisation, the demand for land and mobility in cities is growing dramatically. Consequently, the problems of traffic congestion, environmental deterioration, air pollution, energy consumption, and community inequity etc., are becoming more and more critical for the society (EU, 2011). Certainly, this course is not sustainable in the long term. To address this challenge and achieve sustainable development, a long‐term perspective strategic urban plan, with its potentially important implications, should be established. This thesis contributes on assessing long‐term urban mobility by establishing an innovative methodology for optimizing and evaluating two types of transport demand management measures (TDM). The new methodology aims at relaxing the utility‐based decision‐making assumption by embedding anticipated‐regret and combined utilityregret decision mechanisms in an integrated transport planning framework. The proposed methodology includes two major aspects: 1) Construction of policy scenarios within a single measure or combined TDM policy‐packages using the survey method incorporating the regret theory. The purpose of building the TDM scenarios in this work is to address the specific implementation in terms of time frame and geographic scale for each TDM measure. Finally, 13 TDM scenarios are built in terms of the most desirable, the most expected and the least regret choice by means of the two‐round Delphi based survey. 2) Development of the combined utility‐regret analysis framework based on multicriteria decision analysis (MCDA). This assessment framework is used to compare the contribution of the TDM scenario towards sustainable mobility and to determine the best scenario considering not only the objective utility value obtained from the utilitybased MCDA, but also a regret value that is calculated via a regret‐based MCDA. The objective function of the utility‐based MCDA is integrated in a land use and transport interaction model and is used for optimizing and assessing the long term impacts of the constructed TDM scenarios. A regret based model, called referente dependent regret model (RDRM) is adapted to analyse the contribution of each TDM scenario in terms of a subjective point of view. The suggested methodology is implemented and validated in the case of Madrid. It defines a comprehensive technical procedure for assessing strategic effects of transport demand management measures, which can be useful, transparent and flexible planning tool both for planners and decision‐makers.
Resumo:
Experimental software engineering includes several processes, the most representative being run experiments, run replications and synthesize the results of multiple replications. Of these processes, only the first is relatively well established in software engineering. Problems of information management and communication among researchers are one of the obstacles to progress in the replication and synthesis processes. Software engineering experimentation has expanded considerably over the last few years. This has brought with it the invention of experimental process support proposals. However, few of these proposals provide integral support, including replication and synthesis processes. Most of the proposals focus on experiment execution. This paper proposes an infrastructure providing integral support for the experimental research process, specializing in the replication and synthesis of a family of experiments. The research has been divided into stages or phases, whose transition milestones are marked by the attainment of their goals. Each goal exactly matches an artifact or product. Within each stage, we will adopt cycles of successive approximations (generateand- test cycles), where each approximation includes a diferent viewpoint or input. Each cycle will end with the product approval.
Resumo:
La caracterización de los cultivos cubierta (cover crops) puede permitir comparar la idoneidad de diferentes especies para proporcionar servicios ecológicos como el control de la erosión, el reciclado de nutrientes o la producción de forrajes. En este trabajo se estudiaron bajo condiciones de campo diferentes técnicas para caracterizar el dosel vegetal con objeto de establecer una metodología para medir y comparar las arquitecturas de los cultivos cubierta más comunes. Se estableció un ensayo de campo en Madrid (España central) para determinar la relación entre el índice de área foliar (LAI) y la cobertura del suelo (GC) para un cultivo de gramínea, uno de leguminosa y uno de crucífera. Para ello se sembraron doce parcelas con cebada (Hordeum vulgare L.), veza (Vicia sativa L.), y colza (Brassica napus L.). En 10 fechas de muestreo se midieron el LAI (con estimaciones directas y del LAI-2000), la fracción interceptada de la radiación fotosintéticamente activa (FIPAR) y la GC. Un experimento de campo de dos años (Octubre-Abril) se estableció en la misma localización para evaluar diferentes especies (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) y cultivares (20) en relación con su idoneidad para ser usadas como cultivos cubierta. La GC se monitorizó mediante análisis de imágenes digitales con 21 y 22 muestreos, y la biomasa se midió 8 y 10 veces, respectivamente para cada año. Un modelo de Gompertz caracterizó la cobertura del suelo hasta el decaimiento observado tras las heladas, mientras que la biomasa se ajustó a ecuaciones de Gompertz, logísticas y lineales-exponenciales. Al final del experimento se determinaron el C, el N y el contenido en fibra (neutrodetergente, ácidodetergente y lignina), así como el N fijado por las leguminosas. Se aplicó el análisis de decisión multicriterio (MCDA) con objeto de obtener un ranking de especies y cultivares de acuerdo con su idoneidad para actuar como cultivos cubierta en cuatro modalidades diferentes: cultivo de cobertura, cultivo captura, abono verde y forraje. Las asociaciones de cultivos leguminosas con no leguminosas pueden afectar al crecimiento radicular y a la absorción de N de ambos componentes de la mezcla. El conocimiento de cómo los sistemas radiculares específicos afectan al crecimiento individual de las especies es útil para entender las interacciones en las asociaciones, así como para planificar estrategias de cultivos cubierta. En un tercer ensayo se combinaron estudios en rhizotrones con extracción de raíces e identificación de especies por microscopía, así como con estudios de crecimiento, absorción de N y 15N en capas profundas del suelo. Las interacciones entre raíces en su crecimiento y en el aprovisionamiento de N se estudiaron para dos de los cultivares mejor valorados en el estudio previo: uno de cebada (Hordeum vulgare L. cv. Hispanic) y otro de veza (Vicia sativa L. cv. Aitana). Se añadió N en dosis de 0 (N0), 50 (N1) y 150 (N2) kg N ha-1. Como resultados del primer estudio, se ajustaron correctamente modelos lineales y cuadráticos a la relación entre la GC y el LAI para todos los cultivos, pero en la gramínea alcanzaron una meseta para un LAI>4. Antes de alcanzar la cobertura total, la pendiente de la relación lineal entre ambas variables se situó en un rango entre 0.025 y 0.030. Las lecturas del LAI-2000 estuvieron correlacionadas linealmente con el LAI, aunque con tendencia a la sobreestimación. Las correcciones basadas en el efecto de aglutinación redujeron el error cuadrático medio del LAI estimado por el LAI-2000 desde 1.2 hasta 0.5 para la crucífera y la leguminosa, no siendo efectivas para la cebada. Esto determinó que para los siguientes estudios se midieran únicamente la GC y la biomasa. En el segundo experimento, las gramíneas alcanzaron la mayor cobertura del suelo (83-99%) y la mayor biomasa (1226-1928 g m-2) al final del mismo. Con la mayor relación C/N (27-39) y contenido en fibra digestible (53-60%) y la menor calidad de residuo (~68%). La mostaza presentó elevadas GC, biomasa y absorción de N en el año más templado en similitud con las gramíneas, aunque escasa calidad como forraje en ambos años. La veza presentó la menor absorción de N (2.4-0.7 g N m-2) debido a la fijación de N (9.8-1.6 g N m-2) y escasa acumulación de N. El tiempo térmico hasta alcanzar el 30% de GC constituyó un buen indicador de especies de rápida cubrición. La cuantificación de las variables permitió hallar variabilidad entre las especies y proporcionó información para posteriores decisiones sobre la selección y manejo de los cultivos cubierta. La agregación de dichas variables a través de funciones de utilidad permitió confeccionar rankings de especies y cultivares para cada uso. Las gramíneas fueron las más indicadas para los usos de cultivo de cobertura, cultivo captura y forraje, mientras que las vezas fueron las mejor como abono verde. La mostaza alcanzó altos valores como cultivo de cobertura y captura en el primer año, pero el segundo decayó debido a su pobre actuación en los inviernos fríos. Hispanic fue el mejor cultivar de cebada como cultivo de cobertura y captura, mientras que Albacete como forraje. El triticale Titania alcanzó la posición más alta como cultiva de cobertura, captura y forraje. Las vezas Aitana y BGE014897 mostraron buenas aptitudes como abono verde y cultivo captura. El MCDA permitió la comparación entre especies y cultivares proporcionando información relevante para la selección y manejo de cultivos cubierta. En el estudio en rhizotrones tanto la mezcla de especies como la cebada alcanzaron mayor intensidad de raíces (RI) y profundidad (RD) que la veza, con valores alrededor de 150 cruces m-1 y 1.4 m respectivamente, comparados con 50 cruces m-1 y 0.9 m para la veza. En las capas más profundas del suelo, la asociación de cultivos mostró valores de RI ligeramente mayores que la cebada en monocultivo. La cebada y la asociación obtuvieron mayores valores de densidad de raíces (RLD) (200-600 m m-3) que la veza (25-130) entre 0.8 y 1.2 m de profundidad. Los niveles de N no mostraron efectos claros en RI, RD ó RLD, sin embargo, el incremento de N favoreció la proliferación de raíces de veza en la asociación en capas profundas del suelo, con un ratio cebada/veza situado entre 25 a N0 y 5 a N2. La absorción de N de la cebada se incrementó en la asociación a expensas de la veza (de ~100 a 200 mg planta-1). Las raíces de cebada en la asociación absorbieron también más nitrógeno marcado de las capas profundas del suelo (0.6 mg 15N planta-1) que en el monocultivo (0.3 mg 15N planta-1). ABSTRACT Cover crop characterization may allow comparing the suitability of different species to provide ecological services such as erosion control, nutrient recycling or fodder production. Different techniques to characterize plant canopy were studied under field conditions in order to establish a methodology for measuring and comparing cover crops canopies. A field trial was established in Madrid (central Spain) to determine the relationship between leaf area index (LAI) and ground cover (GC) in a grass, a legume and a crucifer crop. Twelve plots were sown with either barley (Hordeum vulgare L.), vetch (Vicia sativa L.), or rape (Brassica napus L.). On 10 sampling dates the LAI (both direct and LAI-2000 estimations), fraction intercepted of photosynthetically active radiation (FIPAR) and GC were measured. A two-year field experiment (October-April) was established in the same location to evaluate different species (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) and cultivars (20) according to their suitability to be used as cover crops. GC was monitored through digital image analysis with 21 and 22 samples, and biomass measured 8 and 10 times, respectively for each season. A Gompertz model characterized ground cover until the decay observed after frosts, while biomass was fitted to Gompertz, logistic and linear-exponential equations. At the end of the experiment C, N, and fiber (neutral detergent, acid and lignin) contents, and the N fixed by the legumes were determined. Multicriteria decision analysis (MCDA) was applied in order to rank the species and cultivars according to their suitability to perform as cover crops in four different modalities: cover crop, catch crop, green manure and fodder. Intercropping legumes and non-legumes may affect the root growth and N uptake of both components in the mixture. The knowledge of how specific root systems affect the growth of the individual species is useful for understanding the interactions in intercrops as well as for planning cover cropping strategies. In a third trial rhizotron studies were combined with root extraction and species identification by microscopy and with studies of growth, N uptake and 15N uptake from deeper soil layers. The root interactions of root growth and N foraging were studied for two of the best ranked cultivars in the previous study: a barley (Hordeum vulgare L. cv. Hispanic) and a vetch (Vicia sativa L. cv. Aitana). N was added at 0 (N0), 50 (N1) and 150 (N2) kg N ha-1. As a result, linear and quadratic models fitted to the relationship between the GC and LAI for all of the crops, but they reached a plateau in the grass when the LAI > 4. Before reaching full cover, the slope of the linear relationship between both variables was within the range of 0.025 to 0.030. The LAI-2000 readings were linearly correlated with the LAI but they tended to overestimation. Corrections based on the clumping effect reduced the root mean square error of the estimated LAI from the LAI-2000 readings from 1.2 to less than 0.50 for the crucifer and the legume, but were not effective for barley. This determined that in the following studies only the GC and biomass were measured. In the second experiment, the grasses reached the highest ground cover (83- 99%) and biomass (1226-1928 g/m2) at the end of the experiment. The grasses had the highest C/N ratio (27-39) and dietary fiber (53-60%) and the lowest residue quality (~68%). The mustard presented high GC, biomass and N uptake in the warmer year with similarity to grasses, but low fodder capability in both years. The vetch presented the lowest N uptake (2.4-0.7 g N/m2) due to N fixation (9.8-1.6 g N/m2) and low biomass accumulation. The thermal time until reaching 30% ground cover was a good indicator of early coverage species. Variable quantification allowed finding variability among the species and provided information for further decisions involving cover crops selection and management. Aggregation of these variables through utility functions allowed ranking species and cultivars for each usage. Grasses were the most suitable for the cover crop, catch crop and fodder uses, while the vetches were the best as green manures. The mustard attained high ranks as cover and catch crop the first season, but the second decayed due to low performance in cold winters. Hispanic was the most suitable barley cultivar as cover and catch crop, and Albacete as fodder. The triticale Titania attained the highest rank as cover and catch crop and fodder. Vetches Aitana and BGE014897 showed good aptitudes as green manures and catch crops. MCDA allowed comparison among species and cultivars and might provide relevant information for cover crops selection and management. In the rhizotron study the intercrop and the barley attained slightly higher root intensity (RI) and root depth (RD) than the vetch, with values around 150 crosses m-1 and 1.4 m respectively, compared to 50 crosses m-1 and 0.9 m for the vetch. At deep soil layers, intercropping showed slightly larger RI values compared to the sole cropped barley. The barley and the intercropping had larger root length density (RLD) values (200-600 m m-3) than the vetch (25-130) at 0.8-1.2 m depth. The topsoil N supply did not show a clear effect on the RI, RD or RLD; however increasing topsoil N favored the proliferation of vetch roots in the intercropping at deep soil layers, with the barley/vetch root ratio ranging from 25 at N0 to 5 at N2. The N uptake of the barley was enhanced in the intercropping at the expense of the vetch (from ~100 mg plant-1 to 200). The intercropped barley roots took up more labeled nitrogen (0.6 mg 15N plant-1) than the sole-cropped barley roots (0.3 mg 15N plant-1) from deep layers.
Resumo:
La tesis analiza la realidad residencial construida en los municipios del Área Metropolitana de Madrid durante la democracia, en términos de localización, cantidad y calidad/cualidad, y su relación con el desarrollo de las políticas de planeamiento y de vivienda. La pregunta central que ha guiado la investigación es la siguiente: ¿cómo han incidido los instrumentos de política de vivienda y de planeamiento urbanístico en el crecimiento residencial de los municipios del Área Metropolitana de Madrid? Se trata de poner en relación dos políticas públicas orientadas por la Administración en sus distintos niveles de actuación: una de carácter territorial, el planeamiento urbanístico -cuya ejecución es de competencia municipal-, y otra de carácter sectorial, las políticas de vivienda -definidas por la Administración Central y Autonómica-. Al considerar la política de vivienda como el resultado de la política financiera, la política fiscal y la política de suelo, se ha observado cómo en España las dos primeras suponen más del 70% de la intervención presupuestaria en vivienda. Esta investigación se ha centrado particularmente en la tercera, la política de suelo, por su vinculación directa con el planeamiento urbanístico, pero sin dejar de tener en cuenta las dos primeras, no sólo por su implicación en el gasto público, sino porque han tenido tanto efecto, o más, en la conformación de la ciudad como ha podido tenerlo el planeamiento. La primera parte de la tesis se centra en el estudio de las políticas, sus objetivos e instrumentos (normativos y de planificación), mientras que en la segunda parte se analiza la realidad construida, por medio de una serie de variables e indicadores relacionados con la producción residencial (suelo y viviendas); en la tercera se presenta la parte de análisis y las conclusiones generales. Al cruzar los objetivos y los instrumentos de ambas políticas se ha podido concluir con una propuesta de periodización evidenciando las ontinuidades, cambios o transformaciones: después de una etapa de transición –de 1975 a 1978, coincide con los años de la transición democrática, en el que se definen las bases de las nuevas políticas-, se han podido diferenciar tres períodos: 1979-1989, 1990-1997 y 1998-2007. El primer período corresponde a los años en los que se fue construyendo todo el aparato institucional regulador con las nuevas administraciones que surgieron de la democracia. El segundo período, aunque comenzó con la aprobación de la Ley del Suelo de 1990 como instrumento clave del planeamiento regulador, se caracterizó por el cuestionamiento del modelo intervencionista y por los primeros planteamientos de liberalización. Finalmente, en el tercer período se pusieron las bases normativas de la liberalización del suelo en España, con la reforma de la Ley del Suelo de 1998 y otras medidas “remediales”. Finalmente, se presenta el análisis de los resultados sobre la realidad construida, teniendo como clave de interpretación la periodización propuesta a partir de las políticas, con el propósito de conocer cómo han podido incidir en el crecimiento residencial del AMM. Por tanto, la tesis aborda la inquietud de cuándo, cómo y dónde las políticas públicas han construido ciudad y han generado barrios, pues también trata de analizar los espacios urbanos que han sido el resultado físico de dichas políticas (aspectos de los conjuntos residenciales, el entorno inmediato y su relación con el tejido urbano existente), y no sólo de mostrar cantidades de viviendas construidas. Posteriormente, el estudio se centra en el análisis de las actuaciones públicas sobre suelos destinados a uno de los llamados “usos débiles”, las viviendas protegidas. Éstas se han beneficiado, de una u otra manera, de las ayudas económicas que se incluyen en los planes de vivienda y, por ello, están sujetas a unos parámetros definidos por la normativa vigente en cada caso. Ha interesado realizar una valoración de las mismas a partir de criterios de integración social y funcional, y de equilibrio territorial. ABSTRACT The PhD thesis analyses the residential areas built in the Metropolitan Area of Madrid, in terms of location, quality and quantity, and the relationship to the resulting built environment planning and housing policies. Its cover a period of tree decades since the onset of democracy in Spain in 1975 up to the beginning of the great recession starting 2007. The central question that has guided the research is the following: how the instruments of housing policy and urban planning have influenced the residential growth of the municipalities of the Metropolitan Area of Madrid? It is about putting together two different public policies that are also carried out at different levels of government: spacial and urban planning –whose execution is under municipal jurisdiction under principles and guidelines defined at a regional scale; and the sectorial housing policies which are mostly defined by the Nacional and Regional governments and are very interlinked with the wider economic policies of the country. When considering housing policy as the result of financial, fiscal and land policy, it has been noted in Spain that instruments under the first two types of measures (financial and fiscal) account for over 70% of the housing budget intervention. This research has particularly focused on the third, Land Policy, because of its direct link to urban planning. Nevertheless, the research also considers f inancial and f iscal pol icies, not only because of thei r signi f icant level of publ ic spending, but al so because of thei r great impacto n shaping the way the ci ty is bui l t . The first part of the thesis focuses on the study of the policies, objectives and instruments (housing and planning), while the second part analyses the built reality by means of a number of variables and indicators related to the housing production (land and housing). In the third part the analysis and general conclusions are presented. After relating the objectives and instruments of both policies, the thesis concludes with a proposal for periodization showing continuities, changes and transformations: after a transition period – from 1975 to 1978 coinciding with the years of the democratic transition, in which the basis of the new policies were defined- tree periods (1979-1989, 1990- 1997 and 1998-2007) have been d i s t i n g u i s h e d . The first period covers the years in which a new institutional apparatus wa s b u i l t wi t h t h e n e w a r r a n g eme n t s t h a t eme r g e d from democracy. The second period, even though it began with the approval of the Land Act 1990 as key element of the regulatory planning, was characterized by the questioning of public intervention and early approaches to liberalization. Finally, in the third period, the normative basis of liberalization was set up in Spain, with the reform of the Land Act 1998 and other “corrective” measures. At a final point, the analisys of the results on the reality constructed is presented having as a key of interpretation the periodization proposed. This provides tools for interpreting how policies did affect residential growth in the Metropolitan Area of Madrid. Therefore, the thesis addresses the issues of when, how and where public policies have inf luenced and guided the development of resident ial áreas in the región dur ing this t ime f rame. I t is also concerned with analysing those urban spaces that have been the physical result of such policies (aspects of residential complexes, the immediate environment and its relationship with the existing urban infraestructure), going beyond the analisys of statistical data. Subsequently, the study focuses on the analysis of public actions on land for the so-called "weak uses" particularly social housing. These have benefited in one way or another, of financial assistance included in housing plans and, therefore, are subject to some parameters defined by the regulations in force in each case.
Resumo:
El convento de la Tourette se concibe en un marco temporal concreto. Sin embargo sería erróneo limitarse a él a la hora de intentar desentrañar las claves del proyecto y llegar a un entendimiento completo del mismo. Es necesario analizarlo atendiendo al conjunto global de la producción del arquitecto, la cual ha ido forjando una forma propia de hacer que condicionará en gran medida las decisiones tomadas en cada momento. Esta tesis realiza una investigación de doble sentido (recogida en los dos volúmenes que la componen). Por un lado analiza el proceso evolutivo en el que se enhebra la obra intentando desentrañar la influencia de aquel en ésta, pero por otro, invirtiendo el sentido, también desvela ciertas claves de la arquitectura de Le Corbusier a través del preciso análisis de proyecto de la Tourette. Pero aún más, la pertenencia del convento de la Tourette al “tipo monacal” introduce la presencia de un tiempo histórico “ab origine, in hillo tempore” del que la investigación se hace eco. Un tiempo al que Le Corbusier siempre volverá la mirada, y que en este caso se encuentra muy presente, determinando el devenir del proyecto de una forma particular y definitiva. Por tanto este trabajo pretende convocar los dos tiempos que conviven en el proyecto del convento de la Tourette, el corto, concreto y cerrado de su génesis y desarrollo, que se circunscribe al periodo de proyecto comprendido entre los años 1953 y 1956, y el más dilatado, abstracto y abierto, que enlaza el proyecto con la producción de Le Corbusier, y aún más atrás, con el tiempo histórico. En la primera parte del trabajo (A. “PROYECTO”) se realiza un análisis cronológico de la documentación gráfica ‐incluyendo su re‐dibujo‐ y escrita del proyecto, desde los croquis que el arquitecto esboza en su primera visita al valle del Turdine hasta el documento final del project d’exécution, a partir del cual se materializará la obra. El objetivo de la investigación no es describir la realidad construida, sino participar del secreto de su génesis analizando y intentando comprender los dibujos o el pensamiento de sus creadores. Frente a la multitud de escritos sobre la obra del convento de la Tourette el foco de atención de la tesis se centra en el proyecto. Es en esta fase de elaboración y desarrollo de las ideas, previa a la acción de construir, donde pensamos que La deriva de la propia actividad del arquitecto avala esta decisión. A lo largo de su carrera Le Corbusier va reduciendo progresivamente su presencia en la obra centrándose cada vez más en las fases de la concepción y proyecto arquitectónico. Considera que en ellas se produce lo “esencial” mientras que deja las decisiones de obra en manos de sus colaboradores y de los diversos “operadores”, participando tan solo en el visto bueno final de las mismas (esta posición contrasta con la entrega de los constructores para quienes el arquitecto encarna la innovación tecnológica). En la Tourette realiza exclusivamente tres visitas de obra en las que actúa como un mero escenógrafo, ajustando aquí y allá pequeñas decisiones de la construcción. Esta distancia refuerza su posición en el proceso y subraya su búsqueda de un ideal teórico desarrollado sobre todo en la fase de proyecto frente a lo subsidiario de la realidad práctica. En la segunda parte de la tesis, denominada “RE‐VISIONES”, se abre el campo de acción a otras facetas de la ingente actividad de Le Corbusier como la pintura, la escritura o incluso la escultura; una nueva MIRADA bajo el prisma de una serie de conceptos‐llave recurrentes en su Petit vocabulaire (l’homme, la céllule, la bôite, l’organisme). Se amplía, por tanto, el marco temporal, repasando de modo genérico y transversal la evolución de los mismos en la trayectoria del arquitecto, comprobándose como el convento de la Tourette es un eslabón característico y clave en todos ellos. ABSTRACT The Convent of La Tourette is conceived in a specific time frame. However, it would be erroneous to limit oneself simply to this when trying to unravel the keys to the project and to fully understand it. It is necessary to analyse the project attending to the entire production of the architect, who progressively shaped his own way of doing things which would condition to a large extent the decisions taken at each point in time. This thesis carries out its research in a dual sense (brought together in both its volumes). On the one hand, it analyses the development process threading the work attempting to fathom the influence of the former on the latter but, on the other hand, inverting the sense which also reveals certain keys to the architecture of Le Corbusier by means of a detailed analysis of the project for La Tourette. Even more so, the Convent of La Tourette belonging to the “monastic type” introduces the presence of a historical period “ab origine, in hillo tempore" reflected in the research. A period to which Le Corbusier would always look back on and which is extremely present in this case, determining the evolution of the project in a particular and definitive manner. Therefore, this piece of work attempts to bring together both time periods co‐existing in the project for the Convent of La Tourette, the short, specific and closed one regarding its genesis development, encompassing the project period going from 1953 to 1956, and the broader, more abstract and open one linking the project with the production by Le Corbusier, and even further back, with the historical period. The first part of this work (A. “PROJECT") performs a chronological analysis of the graphic – including its re‐drawing –and written documentation of the project, from the outlines the architect sketched in his first visit to the Turdine valley up to the final document of the project d’exécution from which the works would materialise. The main object of the investigation is not intend to describe the reality constructed, but to participate in the secret of its genesis, analysing and trying to understand the drawings or the thoughts of its creators. As opposed to the many writings on the work of the Convent of La Tourette, the attention of this thesis focusses on the project. It is in this preparation and development stage, previous to the construction action, where it is believed the real keys to understand and explain it lie. The enormous work collecting, ordering and analysing the abundant graphic and written information reveals “a multidirectional process, full of regrets and securities, errors and certainties, leaps backwards and tremendous foresight in the process” directed not only by the conditions of the assignment, but also by the way of doing things of Le Corbusier and his collaborator I. Xenakis. A web of hidden relationships is weaved in this open space of the process, often distant in time, allowing us to draw a new route, not only towards the constructed works of the Convent of La Tourette, but towards understanding his entire production. It is in the creation of this new path of knowledge, and not only in its conclusion, where the “thesis” acquires its true meaning. In second place, the drift in the actual activity of the architect backs this decision. Throughout his career, Le Corbusier progressively reduced his presence on site, focussing more and more on the conception and architectural project stages. He considered that which was “essential” took place in these, while leaving the on‐site decisions to his collaborators and the different “operators”, only participating in their final approval (this position is in contrast with the delivery by the constructors for whom the architect embodies the technological innovation). In La Tourette he exclusively made three on‐site visits, in which acted as a pure stage designer, adjusting small construction decisions here and there. This distance reinforces his position in the process and underlines his search for a theoretical ideal developed primarily in the project stage as opposed to that which is secondary of the practical reality. The second part of the thesis, called “RE‐VISIONS”, widens the scope of action to other aspects of the huge activity by Le Corbusier, encompassing painting, writing or even sculpture; a new VIEW under the prism of a series of recurrent key concepts in his Petit vocabulaire (l’homme, la céllule, la bôite, l’organisme). The time frame is therefore extended, revising in a generic and transversal manner the development of these concepts throughout the career of Le Corbusier, confirming how the Convent of La Tourette is a characteristic and key link to each of them.
Resumo:
This paper reports the results of the assessment of a range of measures implemented in bus systems in five European cities to improve the use of public transport by increasing its attractiveness and enhancing its image in urban areas. This research was conducted as part of the EBSF project (European Bus System of the Future) from 2008 to 2012. New buses (prototypes), new vehicle and infrastructure technologies, and operational best practices were introduced, all of which were combined in a system approach. The measures were assessed using multicriteria analysis to simultaneously evaluate a certain number of criteria that need to be aggregated. Each criterion is measured by one or more key performance indicators (KPI) calculated in two scenarios (reference scenario, with no measure implemented; and project scenario, with the implementation of some measures), in order to evaluate the difference in the KPI performance between the reference and project scenario. The results indicate that the measures produce a greater benefit in issues related to bus system productivity and customer satisfaction, with the greatest impact on aspects of perceptions of comfort, cleanliness and quality of service, information to passengers and environmental issues. The study also reveals that the implementation of several measures has greater social utility than very specific and isolated measures.
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.
Resumo:
Este proyecto de fin de carrera se realiza bajo la supervisión y aprobación de la empresa BT S.A.U. Este documento pretende ser un manual básico para dar a conocer al lector los elementos, herramientas y procedimientos para llevar a cabo un proyecto de tendido de fibra óptica en España. Se compone de 5 temas cuyos contenidos paso a resumir a continuación. Tema 1. En él, se muestra una explicación a las redes de acceso y las distintas topologías FTTx necesarias para llegar al cliente, además de las tecnologías y elementos utilizados para su conexión. Tema 2. Se explicará la regulación española para el tendido de redes de acceso necesarios como son la Regulación OBA, coubicación en las centrales de Telefónica, y la Regulación MARCO, compartición de la infraestructura de Telefónica con otros operadores. Tema 3. Aquí se explica la herramienta NEON, necesaria para la “comunicación” con Telefónica para las peticiones de la compartición de su infraestructura y un apartado para la legislación municipal para el despliegue de redes de fibra. Tema 4. Expondremos el procedimiento de trabajo en campo. Hablaremos de los procedimientos del tendido de cable, las obras civiles, y finalmente las medidas para comprobar el enlace. Tema 5. Explicaremos un ejemplo de despliegue real, desde la viabilidad hasta finalmente el tendido. Tema 6. Por último, expondré mis conclusiones y trabajos futuros. Este proyecto está orientado desde un punto de vista de la infraestructura (Capa Física, Modelo OSI). ABSTRACT. This thesis project is carried out under the supervision and approval of the company BT S.A.U. This document is intended as a basic manual to expose the reader items, tools, and procedures to carry out a deployment of optical fiber project in Spain. It is composed of 5 topics whose contents I summarize below. Topic 1. In it, shows an explanation to access networks and different topologies FTTx necessary to reach the customer, as well as technologies and elements used for connection. Topic 2. In this topic will be explained the Spanish regulation for the access networks needed such as the regulation of OBA, co-location in Telefonica’s central, and the framework regulation, sharing of Telefonica infrastructure with other operators. Topic 3. Here we explain the tool NEON, necessary for the "communication" with Telefónica for requests for infrastructure sharing, and a section for municipal legislation for the deployment of fiber networks. Topic 4. We will exhibit work in field procedure. We will discuss the procedures of laying cable, civil works, and finally measures to check the link. Topic 5. We will present an example of an actual deployment, from viability until finally laying. Topic 6. Finally, I shall explain my conclusions and future work. This project is from a point of view of the infrastructure (physical layer, OSI model).
Resumo:
RESUMEN Su objetivo esencial: Regular el proceso de la edificación, está basado en 3 grandes pilares: 1.- Completar la configuración legal de los agentes que intervienen en el mismo, fijando sus obligaciones para así establecer las responsabilidades. 2.- Fomentar la calidad de los edificios. 3.- Fijar las garantías a los usuarios frente a los posibles daños. Estos tres fundamentos están intensamente relacionados, ya que, las obligaciones y responsabilidades de los agentes son la base de la constitución de las garantías a los usuarios, definidas mediante los requisitos básicos que deben satisfacer los edificios. Partiendo del análisis cualitativo y cuantitativo del grado de cumplimiento del objetivo de la nueva Ley, elaborado a través del estudio de sus tres pilares fundamentales, proponemos medidas tendentes a la plena entrada en vigor de la misma. Para ello se deberá desarrollar el Real Decreto previsto en la Disposición Adicional 2ª, una vez conseguido el grado de madurez de los sectores de la edificación y del seguro. En todo este proceso de estudio hemos podido apreciar que la objetiva identificación de los daños y en especial los que afectan la estabilidad del edificio, constituye una herramienta fundamental para la correcta atribución de responsabilidades a los agentes, basada en la aplicación de los tres grados de responsabilidad “ex lege” por daños materiales y sus plazos de prescripción surgidos del nuevo régimen impuesto por el art. 17 LOE Para avalar esta propuesta hemos analizado: 1.- El entorno económico, general y pormenorizado al sector de la edificación, en Europa y España durante el período comprendido entre los años 1990 y 2013, años previos y posteriores a la entrada en vigor de la Ley, dada la influencia de los ciclos de actividad producidos en la regulación del sector, las responsabilidades atribuidas a los agentes, el fomento de la calidad y las garantías ofrecidas a los adquirentes. 2.- Las diversas legislaciones sobre responsabilidades y garantías de los agentes de la edificación en los países de nuestro entorno económico. 3.- La gestación de la LOE, incidiendo en la evolución de los últimos borradores y su tramitación parlamentaria. 4.- El desarrollo doctrinal de la Transición desde el régimen de responsabilidades, fijado por el art. 1591 de Código Civil, y su Jurisprudencia, hacia el nuevo régimen de responsabilidades establecido por el art. 17 LOE. En esta tarea además de apreciar la asimilación, por parte de los Jueces y Magistrados, de los principios doctrinales de la LOE, hemos observado la labor de los peritos, de cuya experta identificación de las causas de los daños depende la justa y eficaz atribución de responsabilidades. 5 -. El grado de eficacia de la LOE a la vista de la estadística siniestral, de la que ya hay datos consolidados, tras la cancelación de casi 15.000 expedientes de reclamación a Arquitectos. 6 -. También hemos estudiado el grado de cumplimiento con el usuario y propietario de las garantías previstas en el art. 19 de la Ley y en la D.A. 1ª, los efectos reales alcanzados y las tareas pendientes por delante. Analizando la atribución de responsabilidades a los agentes de la edificación, dentro del primer pilar fundamental de la LOE, hemos estudiado las actuaciones de los peritos expertos y su incidencia en este objetivo, previa selección de casos de gran interés y dificultad. Fruto de ello se han formulado propuestas tendentes a la especialización de este colectivo, evitando conductas “irregulares” que tanto daño provocan a los agentes reclamados como a los propietarios afectados. Este daño es evidente pudiendo ocasionar condenas injustas, enriquecimientos ilícitos o bien falsas expectativas de satisfacción de daños mal dictaminados y costosas e ineficaces reparaciones. De cara a la consecución del pilar de la calidad de la edificación, mediante los requisitos básicos planteados por la LOE y desarrollados por el Código Técnico de la Edificación (Real Decreto 314/2006, de 17 de marzo), hemos procesado datos de expedientes de reclamaciones por daños que afectan a edificios ejecutados bajo el nuevo régimen LOE. Con esta base se han analizado las causas generadoras de las diversas lesiones y su frecuencia para que de este análisis puedan establecerse pautas de actuación para su prevención. Finalmente, tras demostrar que las garantías obligatorias impuestas por la LOE sólo abarcan un pequeño porcentaje de los posibles daños a la edificación, insistimos en la necesidad de la plena eficacia de la Ley mediante la aprobación de todas las garantías previstas y para todo tipo de edificaciones. En suma, se ha diseñado la tesis como una matriz abierta en la que podremos continuar incorporando datos de la evolución de la doctrina, la jurisprudencia y la estadística de los daños en la edificación. ABSTRACT The approval of Law 38/1999 on November 5, 1999, (Official Gazette BOE 266/1999 of 11.6.1999, p. 38925), was the culmination of a long period of over 20 years of gestation for which deep agreements were needed between all stakeholders affected. Although several parliamentary groups denounced its incomplete approval, regarding mandatory guarantees to the purchaser, its enactment caused general satisfaction among most of the the building agents. This assessment remains after fourteen years since its partial enactment. Its essential purpose, “to regulate the building process”, is based on 3 pillars: 1.- To complete the legal configuration of the agents involved in it, setting their obligations in order to establish their responsibilities. 2.- To promote the buildings quality. 3.- To specify users´guarantees against possible buildings damage. These three issues are strongly related, since the obligations and responsibilities of the actors are the basis of the users’guarantees constitution, defined by the basic performance required by buildings. Based on the qualitative and quantitative analysis of the fulfillment of the new law’s objectives, made by monitoring the three pillars, we propose measures to the full enactment of this Directive, by the development of the Royal Decree, provided in its Second Additional Provision, once maturity in the sectors of the building and insurance is achieved. Throughout this process of study we have seen that the skill identification of damage, particularly those affecting the stability of the building, is an essential tool for the proper allocation of responsibilities of the new regime installed by the art. 17 LOE, based on the application of the three degrees of responsibility "ex lege" for property damage and limitation periods. To support this proposal, we have analyzed: 1.- The evolution of the building sector in Europe and Spain during the years before and after the enactment of the Law, due to the influence of cycles of activity produced in industry regulation, the responsibilities attributed to agents, promotion of the quality and the assurances given to acquirers. 2.- The scope of various laws on liability and building agents warranties in the countries of our economic environment. 3.- The long period of LOE generation, focusing on the developments in recent drafts and parliamentary procedure. 4.- The doctrinal development in the Transition from the regime of responsibilities, set by art. 1591 of the Civil Code, and its Jurisprudence, to the new liability regime established by art. 17 LOE. In this task, while we have noted assimilation by the Judges and Magistrates of the doctrinal principles of the LOE, we have also analyzed the work of experts, whose skilled identification of the damage causes helps the fair and efficient allocation of responsibilities. 5 - The effectiveness of the LOE based on knowledge of the siniestral statistics, which are already consolidated data, after the cancellation of nearly 15,000 claims to Architects. 6.- We have also studied the degree of compliance with the user and owner guarantees, established in art. 19 and the D.A. 1th of the LOE, exposing the real effects achieved and the pending tasks ahead. Analyzing the allocation of the building agents´ responsibilities, within the first cornerstone of the LOE, we have studied the expert witnesses actions and their impact on this duty, selecting cases of great interest and difficulty in this aim. The result of this enterprise has been to propose the specialization of this group, avoiding "irregular" behaviors that create as much damage as the agents claimed to affected owners. This damage is evident and can cause wrong convictions, illicit enrichment, false expectations and inefficient and costly damage repairs. In order to achieve the pillar of building quality through the basic requirements set by the LOE and developed by the Technical Building Code (Royal Decree 314/ 2006 of 17 March), we have analyzed records of damage claims involving buildings executed under the new regime LOE. On this basis we have analyzed the root causes of various damages and their frequency, from these data it will be easy to propose lines of action for prevention. Finally, after demonstrating that mandatory warranties imposed by LOE cover only a small percentage of the potential building damage, we emphasize the need for the full effectiveness of the Law by the obligation all the guarantees provided in the art. 19 LOE, and for all types of buildings. In conclusion, this thesis is designed as an open matrix in which we will continue including data on the evolution of the doctrine, jurisprudence and the statistics of the damage to the building.
Resumo:
El estudio de los ciclos del combustible nuclear requieren de herramientas computacionales o "códigos" versátiles para dar respuestas al problema multicriterio de evaluar los actuales ciclos o las capacidades de las diferentes estrategias y escenarios con potencial de desarrollo en a nivel nacional, regional o mundial. Por otra parte, la introducción de nuevas tecnologías para reactores y procesos industriales hace que los códigos existentes requieran nuevas capacidades para evaluar la transición del estado actual del ciclo del combustible hacia otros más avanzados y sostenibles. Brevemente, esta tesis se centra en dar respuesta a las principales preguntas, en términos económicos y de recursos, al análisis de escenarios de ciclos de combustible, en particular, para el análisis de los diferentes escenarios del ciclo del combustible de relativa importancia para España y Europa. Para alcanzar este objetivo ha sido necesaria la actualización y el desarrollo de nuevas capacidades del código TR_EVOL (Transition Evolution code). Este trabajo ha sido desarrollado en el Programa de Innovación Nuclear del CIEMAT desde el año 2010. Esta tesis se divide en 6 capítulos. El primer capítulo ofrece una visión general del ciclo de combustible nuclear, sus principales etapas y los diferentes tipos utilizados en la actualidad o en desarrollo para el futuro. Además, se describen las fuentes de material nuclear que podrían ser utilizadas como combustible (uranio y otros). También se puntualizan brevemente una serie de herramientas desarrolladas para el estudio de estos ciclos de combustible nuclear. El capítulo 2 está dirigido a dar una idea básica acerca de los costes involucrados en la generación de electricidad mediante energía nuclear. Aquí se presentan una clasificación de estos costos y sus estimaciones, obtenidas en la bibliografía, y que han sido evaluadas y utilizadas en esta tesis. Se ha incluido también una breve descripción del principal indicador económico utilizado en esta tesis, el “coste nivelado de la electricidad”. El capítulo 3 se centra en la descripción del código de simulación desarrollado para el estudio del ciclo del combustible nuclear, TR_EVOL, que ha sido diseñado para evaluar diferentes opciones de ciclos de combustibles. En particular, pueden ser evaluados las diversos reactores con, posiblemente, diferentes tipos de combustibles y sus instalaciones del ciclo asociadas. El módulo de evaluaciones económica de TR_EVOL ofrece el coste nivelado de la electricidad haciendo uso de las cuatro fuentes principales de información económica y de la salida del balance de masas obtenido de la simulación del ciclo en TR_EVOL. Por otra parte, la estimación de las incertidumbres en los costes también puede ser efectuada por el código. Se ha efectuado un proceso de comprobación cruzada de las funcionalidades del código y se descrine en el Capítulo 4. El proceso se ha aplicado en cuatro etapas de acuerdo con las características más importantes de TR_EVOL, balance de masas, composición isotópica y análisis económico. Así, la primera etapa ha consistido en el balance masas del ciclo de combustible nuclear actual de España. La segunda etapa se ha centrado en la comprobación de la composición isotópica del flujo de masas mediante el la simulación del ciclo del combustible definido en el proyecto CP-ESFR UE. Las dos últimas etapas han tenido como objetivo validar el módulo económico. De este modo, en la tercera etapa han sido evaluados los tres principales costes (financieros, operación y mantenimiento y de combustible) y comparados con los obtenidos por el proyecto ARCAS, omitiendo los costes del fin del ciclo o Back-end, los que han sido evaluado solo en la cuarta etapa, haciendo uso de costes unitarios y parámetros obtenidos a partir de la bibliografía. En el capítulo 5 se analizan dos grupos de opciones del ciclo del combustible nuclear de relevante importancia, en términos económicos y de recursos, para España y Europa. Para el caso español, se han simulado dos grupos de escenarios del ciclo del combustible, incluyendo estrategias de reproceso y extensión de vida de los reactores. Este análisis se ha centrado en explorar las ventajas y desventajas de reprocesado de combustible irradiado en un país con una “relativa” pequeña cantidad de reactores nucleares. Para el grupo de Europa se han tratado cuatro escenarios, incluyendo opciones de transmutación. Los escenarios incluyen los reactores actuales utilizando la tecnología reactor de agua ligera y ciclo abierto, un reemplazo total de los reactores actuales con reactores rápidos que queman combustible U-Pu MOX y dos escenarios del ciclo del combustible con transmutación de actínidos minoritarios en una parte de los reactores rápidos o en sistemas impulsados por aceleradores dedicados a transmutación. Finalmente, el capítulo 6 da las principales conclusiones obtenidas de esta tesis y los trabajos futuros previstos en el campo del análisis de ciclos de combustible nuclear. ABSTRACT The study of the nuclear fuel cycle requires versatile computational tools or “codes” to provide answers to the multicriteria problem of assessing current nuclear fuel cycles or the capabilities of different strategies and scenarios with potential development in a country, region or at world level. Moreover, the introduction of new technologies for reactors and industrial processes makes the existing codes to require new capabilities to assess the transition from current status of the fuel cycle to the more advanced and sustainable ones. Briefly, this thesis is focused in providing answers to the main questions about resources and economics in fuel cycle scenario analyses, in particular for the analysis of different fuel cycle scenarios with relative importance for Spain and Europe. The upgrade and development of new capabilities of the TR_EVOL code (Transition Evolution code) has been necessary to achieve this goal. This work has been developed in the Nuclear Innovation Program at CIEMAT since year 2010. This thesis is divided in 6 chapters. The first one gives an overview of the nuclear fuel cycle, its main stages and types currently used or in development for the future. Besides the sources of nuclear material that could be used as fuel (uranium and others) are also viewed here. A number of tools developed for the study of these nuclear fuel cycles are also briefly described in this chapter. Chapter 2 is aimed to give a basic idea about the cost involved in the electricity generation by means of the nuclear energy. The main classification of these costs and their estimations given by bibliography, which have been evaluated in this thesis, are presented. A brief description of the Levelized Cost of Electricity, the principal economic indicator used in this thesis, has been also included. Chapter 3 is focused on the description of the simulation tool TR_EVOL developed for the study of the nuclear fuel cycle. TR_EVOL has been designed to evaluate different options for the fuel cycle scenario. In particular, diverse nuclear power plants, having possibly different types of fuels and the associated fuel cycle facilities can be assessed. The TR_EVOL module for economic assessments provides the Levelized Cost of Electricity making use of the TR_EVOL mass balance output and four main sources of economic information. Furthermore, uncertainties assessment can be also carried out by the code. A cross checking process of the performance of the code has been accomplished and it is shown in Chapter 4. The process has been applied in four stages according to the most important features of TR_EVOL. Thus, the first stage has involved the mass balance of the current Spanish nuclear fuel cycle. The second stage has been focused in the isotopic composition of the mass flow using the fuel cycle defined in the EU project CP-ESFR. The last two stages have been aimed to validate the economic module. In the third stage, the main three generation costs (financial cost, O&M and fuel cost) have been assessed and compared to those obtained by ARCAS project, omitting the back-end costs. This last cost has been evaluated alone in the fourth stage, making use of some unit cost and parameters obtained from the bibliography. In Chapter 5 two groups of nuclear fuel cycle options with relevant importance for Spain and Europe are analyzed in economic and resources terms. For the Spanish case, two groups of fuel cycle scenarios have been simulated including reprocessing strategies and life extension of the current reactor fleet. This analysis has been focused on exploring the advantages and disadvantages of spent fuel reprocessing in a country with relatively small amount of nuclear power plants. For the European group, four fuel cycle scenarios involving transmutation options have been addressed. Scenarios include the current fleet using Light Water Reactor technology and open fuel cycle, a full replacement of the initial fleet with Fast Reactors burning U-Pu MOX fuel and two fuel cycle scenarios with Minor Actinide transmutation in a fraction of the FR fleet or in dedicated Accelerator Driven Systems. Finally, Chapter 6 gives the main conclusions obtained from this thesis and the future work foreseen in the field of nuclear fuel cycle analysis.
Resumo:
El conjunto eficiente en la Teoría de la Decisión Multicriterio juega un papel fundamental en los procesos de solución ya que es en este conjunto donde el decisor debe hacer su elección más preferida. Sin embargo, la generación de tal conjunto puede ser difícil, especialmente en problemas continuos y/o no lineales. El primer capítulo de esta memoria, es introductorio a la Decisión Multicriterio y en él se exponen aquellos conceptos y herramientas que se van a utilizar en desarrollos posteriores. El segundo capítulo estudia los problemas de Toma de Decisiones en ambiente de certidumbre. La herramienta básica y punto de partida es la función de valor vectorial que refleja imprecisión sobre las preferencias del decisor. Se propone una caracterización del conjunto de valor eficiente y diferentes aproximaciones con sus propiedades de encaje y convergencia. Varios algoritmos interactivos de solución complementan los desarrollos teóricos. El tercer capítulo está dedicado al caso de ambiente de incertidumbre. Tiene un desarrollo parcialmente paralelo al anterior y utiliza la función de utilidad vectorial como herramienta de modelización de preferencias del decisor. A partir de la consideración de las distribuciones simples se introduce la eficiencia en utilidad, su caracterización y aproximaciones, que posteriormente se extienden a los casos de distribuciones discretas y continuas. En el cuarto capítulo se estudia el problema en ambiente difuso, aunque de manera introductoria. Concluimos sugiriendo distintos problemas abiertos.---ABSTRACT---The efficient set of a Multicriteria Decicion-Making Problem plays a fundamental role in the solution process since the Decisión Maker's preferred choice should be in this set. However, the computation of that set may be difficult, specially in continuous and/or nonlinear problems. Chapter one introduces Multicriteria Decision-Making. We review basic concepts and tools for later developments. Chapter two studies Decision-Making problems under certainty. The basic tool is the vector valué function, which represents imprecisión in the DM's preferences. We propose a characterization of the valué efficient set and different approximations with nesting and convergence properties. Several interactive algorithms complement the theoretical results. We devote Chapter three to problems under uncertainty. The development is parallel to the former and uses vector utility functions to model the DM's preferences. We introduce utility efficiency for simple distributions, its characterization and some approximations, which we partially extend to discrete and continuous classes of distributions. Chapter four studies the problem under fuzziness, at an exploratory level. We conclude with several open problems.
Resumo:
En Ecuador el maíz es el cultivo más importante en superficie y es base de la alimentación para la población rural que vive en los Andes. A diferencia de lo que sucede en la Costa, en la región Sierra todavía se cultivan numerosas variedades tradicionales que se agrupan en veinticuatro razas. Mantener esta diversidad es, pues, de gran importancia no solo para la seguridad alimentaria, sino también como fuente de genes para tolerancia a factores abióticos que podrían ser incorporados a las variedades modernas. Si bien parte de esta diversidad fue recolectada a mediados del siglo pasado y está siendo conservada en distintos bancos de germoplasma, es deseable que su conservación in situ también esté asegurada, entre otras razones, porque de esta manera el cultivo puede seguir evolucionando. Para poder implementar un plan de conservación en finca que contribuya a preservar este patrimonio, resulta imprescindible identificar áreas idóneas donde concentrar los recursos y conocer las características y tipologías de los agricultores que manejan la diversidad actual. Generar esta información es el objetivo principal de esta investigación y para lograrlo se han llevado a cabo cuatro estudios: (1) Análisis de la diversidad a nivel de razas e identificación de áreas de alta riqueza de razas, alta diversidad morfológica y/o alta diversidad ecogeográfica en la Sierra de Ecuador, (2) Identificación del perfil y las características de los agricultores que conservan y manejan las variedades tradicionales de maíz en la Sierra de Ecuador, (3) Análisis del conocimiento local, manejo y usos de variedades tradicionales de maíz en la Sierra de Ecuador, y (4) Identificación de áreas de alta diversidad y bajo riesgo de pérdida para la conservación en finca de maíz en la Sierra de Ecuador. Para el primer estudio se visitaron 303 fincas distribuidas a lo largo de la Sierra y se recolectaron 636 muestras que fueron caracterizadas morfológicamente mediante 14 variables: 8 relacionadas con la mazorca (forma, longitud y diámetro de la mazorca, color y diámetro de olote y número y disposición de hileras) y 7 referidas el grano (número total de granos, color, forma, longitud, anchura y grosor de grano y tipo de endospermo). Adicionalmente, las fincas donde se tomaron las muestras fueron caracterizadas ecogeográficamente mediante 5 variables climáticas (temperatura media estacional, rango de temperatura media anual, temperatura mínima de diciembre, precipitación estacional y precipitación de octubre), 2 geofísicas (altitud y pendiente) y 5 edáficas (textura principal del suelo, profundidad a roca, pH, contenido en materia orgánica y fertilidad). A partir de esta información y mediante técnicas de sistemas de información geográfica (SIG), se generaron mapas de distribución por raza en formato vectorial y un mapa de riqueza de razas, un mapa de diversidad morfológica y un mapa de diversidad ecogeográfica en formato ráster con celdas de 10 km x 10 km. Los resultados permitieron constatar que, en los últimos 60 años, no se ha perdido ninguna raza. Sin embargo, Canguil, Chaucho y Clavito han dejado de cultivarse en algunas provincias con la consiguiente erosión genética del cultivo. La caracterización morfológica detectó diferencias en el grado de variabilidad intra-raza, siendo Patillo Ecuatoriano, Racimo de Uva y Uchima las razas más heterogéneas tanto para los caracteres cualitativos como cuantitativos. A nivel climático y geofísico, también se detectaron diferencias en el grado de variación intra-raza; Cuzco Ecuatoriano, Kcello Ecuatoriano y Montaña Ecuatoriana fueron las razas que en promedio presentaron mayores rangos y coeficientes de variación para estas variables ecogeográficas. En cuanto a las condiciones edáficas todas las razas, excepto Cónico Dentado, presentaron una gran heterogeneidad, pudiendo crecer tanto en suelos ricos como pobres, con valores de pH entre ácido y moderadamente alcalino. La comparación entre razas reveló diferencias significativas en los rangos ambientales de algunas razas como Cónico Dentado, que tiende a cultivarse a menor altitud y, por tanto, en ambientes menos fríos y de mayor precipitación que Blanco Blandito, Patillo Ecuatoriano, Sabanero Ecuatoriano, Uchima y Zhima. Para la mayoría de las razas se encontraron materiales potencialmente adaptados a condiciones de estrés (precipitación estacional inferior a 500 mm y suelos con pH entre 4.5 y 5.5). Finalmente, los mapas de riqueza, de diversidad morfológica y de diversidad ecogeográfica mostraron 36 celdas de alta diversidad repartidas en las 10 provincias de la Sierra: 11 celdas en las provincias del norte, 11 en las provincias del centro y 14 en las provincias del sur. Para la caracterización e identificación de las tipologías de los agricultores que cultivan maíz en la Sierra de Ecuador y el análisis de los posibles factores de riesgo de pérdida de diversidad, se realizaron entrevistas individuales y semiestructuradas a los agricultores dueños de las fincas donde se recolectaron las muestras para el estudio de diversidad (254 en total). Las preguntas que se formularon (11 abiertas y 5 cerradas) estuvieron organizadas en seis bloques: datos del agricultor, características de la finca, diversidad y conocimiento del cultivo, manejo del cultivo, usos y flujo de semillas. Los resultados indicaron que la diversidad de maíz que hay en la Sierra de Ecuador es manejada mayoritariamente por agricultores mestizos, de entre 30 y 55 años, que cultivan una o dos variedades tradicionales para autoconsumo, en parcelas de menos de 0.5 ha y en asocio con fréjol. El análisis de segmentación mediante el algoritmo Chi-square automatic interaction detection (CHAID) permitió identificar un pequeño grupo de agricultores indígenas con parcelas medianas (entre 0.5 ha y 1.5 ha) que conservan un mayor número de variedades tradicionales por finca que el agricultor promedio. Los análisis estadísticos no detectaron diferencias significativas entre etnias (mestizo vs. indígena), géneros (hombre vs. mujer) y grupos de edad (jóvenes menores de 30 años, adultos entre 30 y 55 años y adultos mayores de 55 años) en lo que respecta al conocimiento del cultivo (criterios de reconocimiento y razones de preferencia) y manejo (tipo de cultivo), pero sí detectaron diferencias entre regiones, principalmente en el modo de cultivar el maíz; mientras que en el norte y sur tienden a sembrarlo en asocio y con un mayor número de especies, en el centro acostumbran a cultivarlo preferentemente solo. En cuanto a los usos, se recopilaron hasta 39 modos diferentes de consumir maíz, siendo Kcello Ecuatoriano y Zhima las razas para las que se registró un mayor número de usos. La comparación del número medio de usos por variedad entre etnias evidenció que los agricultores mestizos utilizan sus variedades tradicionales de forma más variada que los indígenas. Entre los factores de riesgo que se analizaron, el bajo porcentaje de jóvenes agricultores que se ocupan de las fincas podría suponer una amenaza a medio plazo por falta de relevo generacional. Adicionalmente, las numerosas sinonimias y homonimias que se detectaron y el bajo intercambio de semillas también podrían ser causa de pérdida de diversidad, bien por reemplazo o por envejecimiento de la semilla. Finalmente, se concluyó que las razas Chaucho, Complejo Chillo-Huandango, Complejo Mishca-Huandango, Cónico Dentado, Montaña Ecuatoriana y Sabanero Ecuatoriano son particularmente vulnerables, no solo por su baja presencia, sino también por el color de grano que tienen (los mismos que la mayoría de las razas más comunes) y carecer de nombres y usos específicos. Finalmente, para la priorización de áreas de conservación en finca para maíz en la Sierra de Ecuador, se utilizaron 13 criterios de diferente naturaleza: 2 ecogeográficos (precipitación, diversidad ecogeográfica), 6 biológicos (grado de presencia del cultivo, riqueza de razas, diversidad morfológica, presencia de mezclas, presencia de razas locales y riesgo de erosión genética), 3 culturales (abundancia de variedades por finca, diversidad de usos y frecuencia de intercambio) y 2 demográficos (tamaño de la población y distancia a núcleos urbanos). Mediante técnicas SIG y de evaluación multicriterio, los valores originales de las capas-criterio fueron transformados a una escala de 0 a 100. Posteriormente, las capas-criterio normalizadas fueron sumadas utilizando tres métodos de ponderación: (1) mismo peso, (2) diferente peso según la puntuación otorgada por 72 expertos, y (3) diferente peso según el método de comparación entre pares de criterios. Los resultados permitieron identificar ocho celdas de 10 km x 10 km con alta puntuación (> 65): tres celdas en el norte (una en cada una de las provincias), una celda en el centro (en la provincia de Cotopaxi), y cuatro celdas en la región sur (dos en Azuay y otras dos en Loja). ABSTRACT In Ecuador, the maize is the most important cultivation in surface and it is a base of the feeding for the rural population who lives in the Andes. In contrast to what it happens on the Coast, in the Sierra region still there are cultivated numerous traditional varieties that are grouped into twenty-four races. Maintaining this diversity is, therefore, of great importance not only for food security, but also as a source of genes for tolerance to abiotic factors could be incorporated into modern varieties. Although part of this diversity was collected in the middle of the last century and is still preserved in various germplasm banks, it is desirable for the in situ conservation also is assured, among other reasons, because in this way the crop can continue to evolve. To be able to implement a conservation plan on farm that contribute to preserving this heritage, it is essential to identify suitable areas where to concentrate resources and know the characteristics and typology of farmer who managed the current diversity. To generate this information is the main target of this investigation and to achieve this, four studies have been carried out: (1) Analysis of the diversity at races and identification of areas of high richness of races, high morphological diversity and / or ecogeographical high diversity in the Sierra of Ecuador, (2) Identification of the profile and characteristics of farmers who conserve and manage traditional varieties of maize in the Sierra of Ecuador, (3) Analysis of local knowledge, management and use of traditional varieties of maize in the Sierra of Ecuador, and (4) Identification of areas of high diversity and low risk of loss for the conservation of maize in the Sierra of Ecuador. For the first study were visited 303 farms distributed along the Sierra and collected 636 samples that were characterized morphologically by 14 variables: 8 related to the ear (shape, length and diameter of the cob, colour, and diameter of cob and number and arrangement of rows) and 7 referred to the grain (total number of grain, colour, shape, length, width, and thickness and type of grain endosperm). In addition, the farms where the samples were taken were characterized ecogeographically through 5 climatic variables (seasonal average temperature, range of average annual temperature, minimum temperature for December, seasonal precipitation and precipitation of October), 2 geophysical (altitude and slope) and edaphic 5 (main texture of the soil, deep rock, pH, content of organic matter and fertility). From this information and techniques of geographic information systems (GIS), maps were generated for distribution by race in vector format and a map of richness of races, a map of morphological diversity and a map of ecogeographical diversity in raster format with cells of 10 km x 10 km. The results allowed observing that, over the past 60 years, it has not lost any race. Nevertheless, Canguil, Chaucho and Clavito have stopped being cultivated in some provinces with the consequent genetic erosion of the cultivation. The morphological characterization detected differences in the degree of variability intra-race, being Patillo Ecuatoriano, Racimo de Uva and Uchima races more heterogeneous both for the qualitative and quantitative characters. At climate and geophysical level, also detected differences in the degree of variation intra-race; Cuzco Ecuatoriano, Kcello Ecuatoriano and Montaña Ecuatoriana were races that, on average, showed higher ranges and coefficients of variation for these geographical characters. In terms of the edaphic conditions, all races, except Cónico Dentado, showed a great heterogeneity, and can grow both in rich and poor soils, with pH values between acid and moderately alkaline. The comparison between races revealed significant differences in the environmental ranges in some races as Cónico Dentado, which tends to be grown at lower elevations and, therefore, in environments less cold and greater precipitation than Blanco Blandito, Patillo Ecuatoriano, Sabanero Ecuatoriano, Uchima and Zhima. For most of the races were found materials potentially adapted to stress conditions (seasonal precipitation less than 500 mm and soil with a pH between 4.5 and 5.5). Finally, the maps of richness, morphologic diversity and ecogeographical diversity showed 36 cells high diversity distributed in 10 provinces of the Sierra: 11 cells in the northern provinces, 11 in the central provinces and 14 in the southern provinces. For the characterization and identification of the typology of the farmers who cultivate corn in the Sierra of Ecuador and the analysis of the possible factors of risk of loss of diversity, there were realized interviews individual and semistructured to the farmers’ owners of the farms where the samples were gathered for the study of diversity (254 in whole). The questions that were formulated (11 opened ones and 5 closed ones) were organized in six blocks: data of the farmer, characteristics of the farm, diversity and knowledge of the crop, crop management, uses and seed flow. The results indicated that the maize diversity that exist in the Sierra of Ecuador is managed mainly by mestizo farmers, aged between 30 and 55, who cultivate one or two traditional varieties for self-consumption, on plots of less than 0.5 has and in associated with beans. The segmentation analysis algorithm using the Chi-square automatic interaction detection (CHAID technique), allowed to identify a small group of indigenous farmers with medium-sized plots (between 0.5 there is and 1.5 it is) that a major number of traditional varieties preserves for farm that the average farmer. The statistical analysis did not detect significant differences between ethnic groups (mestizos vs. indigenous), genres (man vs. women) and age groups (young people under 30 years of age, adults between 30 and 55 years and adults over 55 years old) in regards to the knowledge of the cultivation (recognition criteria and reasons of preference) and management (type of crop), but if detected differences between regions, mainly on the mode of cultivating the maize; while in the north and south they tend to sow in associate and with a greater number of species, in the center accustomed to cultivate it preferably only. In regards to the uses, they were compiled up to 39 different ways of consuming maize, being Kcello Ecuatoriano and Zhima the races for which a major number of uses registered. The comparison of the average number of uses per variety between ethnic groups showed that the mestizo farmers used their traditional varieties of form more varied than the indigenous people. Between the factors of risk that were analyzed, the low percentage of young farmers who deal with the farms might suppose a medium-term threat for lack of generational relief. In addition, the numerous synonyms and homonyms that were detected and the low seed exchange could also be a cause of loss of diversity, either by replacement or by aging of the seed. Finally, it was concluded that the races Chaucho, Complex Chillo-Huandango, Complex Mishca-Huandango, Cónico Dentado, Montaña Ecuatoriana and Sabanero Ecuatoriano are particularly vulnerable, not only because of their low presence, but also by the grain color they have (the same as the majority of races more common) and lack of names and specific uses. Finally, for the prioritization of maize conservation areas on farm in the Sierra of Ecuador, used 13 criteria of different nature: 2 ecogeographic (precipitation, diversity ecogeographical), 6 biological (degree of presence of the crop, races richness, morphological diversity, the presence of mixtures, presence of local races and risk of genetic erosion), 3 cultural (abundance of varieties per farm, diversity of uses and frequency of exchange) and 2 demographic (population size and distance to urban centers). Using GIS techniques and multicriteria evaluation, the original values of the layers-criterion were transformed to a scale of 0 to 100. Later, the normalized layers - criteria were added using three weighting methods: (1) the same weight, (2) different weight according to the score given by 72 experts, and (3) different weight according to the method of comparison between pairs of criteria. The results allowed to identify eight 10 km cells x 10 km with high punctuation (> 65): three cells in the north (one in each of the provinces), a cell in the center (in the Cotopaxi province), and four cells in the south region (two in Azuay and other two in Loja).
Resumo:
El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.
Resumo:
El presente trabajo realiza un análisis de la vulnerabilidad de la viticultura en España ante el Cambio Climático que contribuya a la mejora de la capacidad de respuesta del sector vitivinícola a la hora de afrontar los retos de la globalización. Para ello se analiza el impacto que puede tener el Cambio Climático en primer lugar sobre determinados riesgos ocasionados por eventos climáticos adversos relacionados con extremos climáticos y en segundo lugar, sobre los principales índices agro-climáticos definidos en el Sistema de Clasificación Climática Multicriterio Geoviticultura (MCGG), que permiten clasificar las zonas desde un punto de vista de su potencial climático. Para el estudio de las condiciones climáticas se han utilizado los escenarios de Cambio Climático regionalizados del proyecto ESCENA, desarrollados dentro del Plan Nacional de Adaptación al Cambio Climático (PNACC) con el fin de promover iniciativas de anticipación y respuesta al Cambio Climático hasta el año 2050. Como parte clave del estudio de la vulnerabilidad, en segundo lugar se miden las necesidades de adaptación para 56 Denominaciones de Origen Protegidas, definidas por los impactos y de acuerdo con un análisis de sensibilidad desarrollado en este trabajo. De este análisis se desprende que los esfuerzos de adaptación se deberían centrar en el mantenimiento de la calidad sobre todo para mejorar las condiciones en la época de maduración en los viñedos de la mitad norte, mientras que en las zonas de la mitad sur y del arco mediterráneo, además deberían buscar mantener la productividad en la viticultura. Los esfuerzos deberían ser más intensos en esta zona sur y también estarían sujetos a más limitaciones, ya que por ejemplo el riego, que podría llegar a ser casi obligatorio para mantener el cultivo, se enfrentaría a un contexto de mayor competencia y escasez de recursos hídricos. La capacidad de afrontar estas necesidades de adaptación determinará la vulnerabilidad del viñedo en cada zona en el futuro. Esta capacidad está definida por las propias necesidades y una serie de condicionantes sociales y de limitaciones legales, como las impuestas por las propias Denominaciones de Origen, o medioambientales, como la limitación del uso de agua. El desarrollo de estrategias que aseguren una utilización sostenible de los recursos hídricos, así como el apoyo de las Administraciones dentro de la nueva Política Agraria Común (PAC) pueden mejorar esta capacidad de adaptación y con ello disminuir la vulnerabilidad. ABSTRACT This paper analyzes the vulnerability of viticulture in Spain on Climate Change in order to improve the adaptive capacity of the wine sector to meet the diverse challenges of globalization. The risks to quality and quantity are explored by considering bioclimatic indices with specific emphasis on the Protected Designation of Origin areas that produce the premium winegrapes. The Indices selected represents risks caused by adverse climatic events related to climate extremes, and requirements of varieties and vintage quality in the case of those used in the Multicriteria Climatic Classification System. (MCCS). To study the climatic conditions, an ensemble of Regional Climate Models (RCMs) of ESCENA project, developed in the framework of the Spanish Plan for Regional Climate Change Scenarios (PNACC-2012) have been used As a key part of the study of vulnerability risks and opportunities are linked to adaptation needs across the Spanish territory. Adaptation efforts are calculated as proportional to the magnitude of change and according to a sensitivity analysis for 56 protected designations of origin. This analysis shows that adaptation efforts should focus on improving conditions in the ripening period to maintain quality in the vineyards of the northern half of Iberian Peninsula, while in areas of the southern half and in the Mediterranean basin, also should seek to maintain productivity of viticulture. Therefore, efforts should be more intense in the Southern and Eastern part, and may also be subject to other limitations, such as irrigation, which could become almost mandatory to keep growing, would face a context of increased competition and lack of resources water. The ability to meet these needs will determine the vulnerability of the vineyard in each region in the future. This capability is defined also by a number of social factors and legal limitations such as environmental regulations, limited water resources or those imposed by their own Designation of Origin. The development of strategies to ensure sustainable use of water resources and the support schemes in the new Common Agricultural Policy (CAP) can improve the resilience and thus reduce vulnerability.