1000 resultados para Evaluación educativa-Tesis y disertaciones académicas
Resumo:
La tesis se organiza en un volumen de Memoria integrada por once capítulos que constituyen el cuerpo de la tesis y otro volumen de Apéndices titulado “Caracterización geotécnica de Base de los suelos de España” que reúne en forma de cuadros las características de textura, permeabilidad, humedad-succión, erosionabilidad y resistencia al corte de los cuarenta y dos perfiles de suelos representativos de los tipos del Mapa de suelos De España. Estos cuadros han sido elaborados originalmente por la doctorando durante sus estudios para la obtención del DEA de la Suficiencia Investigadora, excepto los de resistencia al corte que lo han sido también por la doctorando de forma original, pero ya en la etapa de redacción de la tesis. En el Capítulo 1 “Introducción” se describe la motivación, antecedentes, alcance y contenido de la tesis, ordenado según el índice que en él se incluye. Los Capítulos 2 “Meteorización, 3 “Balance Hídrico” y 4 “Humedades características” constituyen el “estado del arte” en el momento actual de los temas de geotecnia ambiental relacionados con la degradación de la superficie terrestre y la estabilidad de taludes. El Capítulo 2, tras matizar algunas generalidades, aporta elementos para la cuantificación de la alteración de rocas como el “índice climático de Weinert” y de la erosión de suelos como la “ecuación universal de pérdida de suelo (U.S.L.E.)” El Capítulo 3, partiendo de los fenómenos de precipitación y evapotranspiración, plantea el balance hídrico en vertientes con instrumentos para evaluar la infiltración y la escorrentía, conceptos imprescindibles para adentrarse en los de resistencia y erosionabilidad del conjunto suelo-agua. En los Apéndices A1 y A2, se recogen valores de coeficientes de infiltración en condiciones saturadas y no saturadas de los perfiles de suelos del Mapa de España. El Capítulo 4 se dedica al estudio de este conjunto suelo-agua con la definición de conceptos que lo caracterizan, basados en la relación entre los contenidos de ambos elementos o “humedad”, sus valores máximos y mínimos y la forma en la que es retenida el agua por el suelo. Este capítulo acaba con el concepto de “Curva característica Suelo-Agua/Soil Water Characteristic curve (SWCC)”, que liga el contenido de agua de un suelo con la tensión a la que está retenida (uauw) “succión” o con su expresión más usual “pF”. En el Apéndice A 3 se adjuntan las SWCC de los perfiles de suelos del Mapa de suelos de España. En el Capítulo 5 “Resistencia al corte de los suelos”, se detalla la influencia que tienen sobre la resistencia de los suelos factores como el paso del tiempo, el contenido de humedad y la presencia y tipo de vegetación en la superficie del suelo estudiado. El Capítulo 6 “Evaluación de la erosión”, analiza el factor de erosionabilidad del suelo “factor K” de la U.S.L.E., su evaluación en función de la textura, estructura y permeabilidad del suelo, con la estimación hecha para los cuarenta y dos perfiles de suelos del Mapa de España, contenida en el Apéndice 4. En el Capítulo 7 “Metodología de diseño” se hacen en su primera parte unas consideraciones geoambientales de diseño aplicables al estudio de los problemas de inestabilidades en taludes. La segunda parte constituye el núcleo de la tesis con la propuesta de “estimación de los parámetros de resistencia al corte del suelo”, consecuente con las teorías y metodología de análisis expuesta en los capítulos anteriores. En el Apéndice A 5 se presentan los valores de los parámetros coulombianos de resistencia al corte, ”c y Ф” estimados según la caracterización climática a partir del índice de Thornthwaite, en condicionesde diseño para humedades naturales máxima y mínima de los cuarenta y dos perfiles de suelos del Mapa de suelos de España. El Capítulo 8 “Aplicación a casos reales” se considera de gran interés al constituir una auténtica continuación de la segunda parte del capítulo anterior, desarrollando la metodología expuesta en él a cuatro problemáticas de infraestructuras de obras lineales, relacionadas con problemas de erosión y deslizamientos en taludes. El Capítulo 9 “Ensayos de referencia” se incluye como punto de apoyo (referencia) a las teorías expuestas, valorando la idoneidad de los tipos de ensayos y tipos de suelos seleccionados (Laboratorio de Geotecnia del CEDEX y Laboratorio Hong-Kong University of Science and Technology), utilizados para la obtención, por correlaciones deducidas, de las curvas SWCC de los perfiles de suelos del Mapa de España, incluídas en el Apéndice A 3, como se ha citado antes. En el Capítulo 10 “Conclusiones y Futuras Líneas de Investigación”se apuntan en primer lugar unas conclusiones que, a juicio de la doctorando, se pueden extraer con interés de esta tesis y a continuación se esbozan unas posibles líneas de investigación, fundamentalmente de tipo experimental, que complementarían los avances derivados de esta tesis o podrían esclarecer y abrir nuevas interpretaciones de los fenómenos naturales de erosión y estabilidad de taludes en los que ésta se ha centrado. Finalmente, en el Capítulo 11 “Bibliografía” se han reunido 328 referencias que reflejan una visión amplia y bastante completa del tema tratado, obtenida complementando las de tesis anteriores sobre esta singular materia (“Efecto estabilizador de la vegetación en taludes”, L Fort 1975 y “Determinación de las características de fricción en el contacto suelo-geotextil a diferentes succiones, mediante equipos de laboratorio singulares”, E Asanza 2009), con propias de la doctorando (9) y las consideradas de mayor interés de los últimos Congresos sobre Suelos no saturados,”Unsat 95”, “Unsat 2002” y “Unsat 2011” entre otros. ABSTRACT The thesis is organized in a volume of Memory composed of eleven chapters that make up the body of the thesis and other Appendices volume entitled "Geotechnical characterization of basis of the soils of Spain" that combines the characteristics of texture, permeability, moisture-suction, erosionability, and shear strength of forty-two profiles of soils representative of the types of the soil of Spain map in the form of pictures. These pictures have been produced originally by the student during their studies to obtain the DEA of the research, except those of the shear strength, also been done by the PhD student in an original way, but already at the stage of drafting of the thesis. Chapter 1 "Introducción" describes the motivation, background, scope and content of the thesis, ordered according to the index that is included. The Chapters: 2 "Weathering, 3 “Water Balance” and 4 “moisture characteristics" are the "State of the art" at the present time of geotechnical environmental issues related to the degradation of the Earth's surface and the slope stability. Chapter 2 after clarify some general information, provides elements for the quantification of the alteration of rocks as "Weinert climate index" and soil erosion as the "universal equation of loss of soil (U.S.L.E.)" Chapter 3, on the basis of the phenomena of precipitation and evapotranspiration, raises the water balance in sheds with instruments to evaluate infiltration and runoff, essential concepts into the resistance and erosionability water-soil joint. Values of soils coefficients of infiltration in saturated and unsaturated conditions from the Spain map of profiles are collected in the Appendices A1 and A2. Chapter 4 is dedicated to the study of this joint “soil-water”, with the definition of concepts that characterize it, based on the relationship between the contents of both elements or “moisture”, their maximum and minimum values and the way in which water is retained by the soil. This chapter ends with the concept of “Soil Water Characteristic curve (SWCC)", which linked the water content of a soil with the stress that it is retained (ua-uw) "suction" or its expression more usual "pF". The SWCC of the profiles of soils of the Spain soils Map are attached in the Appendix 3. In Chapter 5 “Soils shear strength”,is detailed the influence that they have on the resistance of soils factors such as the passage of time, the content of moisture and the presence and type of vegetation on the surface of the studied soil. Chapter 6 "Assessment of erosion", analyses the soil erodibility factor "Kfactor" of the U.S.L.E., its evaluation based on texture, structure and permeability of the soil, with the estimate for forty-two profiles of soils on the Spain Soils Map, contained in Appendix 4. Chapter 7 "Design methodology" some considerations are made in the first part geo-environmental design applicable to the study of the problems of instabilities in slopes. The second part constitutes the core of the thesis with the proposal of “estimation of parameters of shear strength”, of the soils consistent with theories and analytical methodology outlined in the previous chapters. Appendix A 5 presents the values of the coulombians parameters of shear strength, "c and Ф" according to the characterization of climate from the index of Thornthwaite, in design for natural moisture conditions maximum and minimum of forty-two profils of Spain Soils Map Chapter 8 "Application to real cases" is considered of great interest to constitute a true continuation of the second part of the previous chapter, developing the methodology exposed it to four problems of civil-works infrastructure, related to problems of erosion and landslides in slopes. Chapter 9 "Tests of reference" is included as point of support (reference) to the theories exposed, assessing the suitability of the types of tests and types of selected soils (Geotechnical laboratory of CEDEX and laboratory Hongkong University of Science and Technology), used to obtain, by deduced correlations, of curves SWCC of soils profiles on the Spain Soils Map, included in Appendix A. 3, as it was mentioned before. Chapter 10 "Conclusions and future research lines" are running first conclusions which, in the opinion of the candidate, can be extracted with interest of this thesis, and then, it outlines some possible lines of research, mainly experimental, which would complement the advances arising from this thesis or could clarify and open new interpretations of natural phenomena of erosion and slope stability in which it has focused. Finally, in Chapter 11 "Bibliography" 328 references have been included which reflect a broad and fairly comprehensive view of the subject matter, obtained complementing those of the previous theses on this singular issue ("Vegetation stabilizing effect on slopes", L Fort 1975, and "Determination of the characteristics of friction in the contact soil-geotextile to different-suctions, through special laboratory equipment", E Asanza 2009) with some of them from of the candidate (9) and the others from of the considered as the most interesting of recent conferences on unsaturated soils, "Unsat 95", "Unsat2002" and "Unsat 2011" among others.
Resumo:
La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.
Resumo:
La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.
Resumo:
La presente tesis doctoral persigue dos objetivos simultáneos: Determinar el alcance de los criterios clásicos para la evaluación de arquitectura y poner en crisis la prevalencia de esos mismos criterios dentro del marco crítico y productivo actual. En concreto, esta tesis se interroga sobre la posible contribución de determinadas corrientes del pensamiento post-estructuralista y neo-materialista a las tareas de expansión y transformación de los criterios clásicos antes mencionados. Asimismo, se plantea la oportunidad de formalizar estas incorporaciones conceptuales como metodologías para el proyectar arquitectónico. La tesis emplea un análisis pormenorizado de las cualidades implícitas en la triada Firmitas, Utilitas, Venustas elaborada por Vitruvio como vehículo para calibrar la influencia de los paradigmas de pensamiento clásico en nuestras posiciones críticas contemporáneas. Como reacción al carácter dominante de dichos paradigmas, y con la ayuda de una compilación selectiva de ejemplos procedentes de los campos artístico y arquitectónico, la presente tesis procede a examinar y clasificar diversas estrategias arquitectónicas basadas en la no conformidad con los criterios clásicos de evaluación de la disciplina. A la hora de realizar esta tarea, y con el objetivo de superar el dualismo trascendental que caracteriza la gran mayoría de dichos criterios clásicos, se propone un modelo analítico y multidimensional que formula las instancias arquitectónicas como posibles posiciones dentro de un extenso continuo combinatorio de cualidades formales, estructurales y organizativas. Este modelo conceptual permite replantear el aparente antagonismo entre los principios de Vitruvio y sus opuestos, estableciendo en su lugar un dominio operativo continuo de producción arquitectónica. Esta operación abre una ventana de oportunidad para expandir los límites del marco crítico actual más allá de las fronteras establecidas por nuestra herencia clásica. En consecuencia con esta voluntad, la presente tesis pretende habilitar un ámbito para el análisis crítico de las estrategias que caracterizan ciertas corrientes del proyectar contemporáneo, pero también contribuir a informar nuevas aproximaciones metodológicas al proceso de proyecto, desplazando progresivamente su foco desde lo descriptivo hacia lo proyectivo. ABSTRACT This doctoral thesis attempts to simultaneously determine the scope of the classical criteria for the evaluation of architecture and challenge their prevalence within the current framework of architectural production and criticism. It examines how specific strands of post-structuralism and neo-materialism may contribute to both the expansion and the transformation of these criteria and, in doing so, sets itself the goal of mobilising these conceptual incorporations as explicit design methodologies. A detailed analysis of the formal, structural and organisational qualities implicit in Vitruvius’ triad Firmitas, Utilitas, Venustas is used as a starting point to determine the influence of classical paradigms in our current critical positions. As a reaction to this critical pervasiveness, and supported by a curated collection of artistic and architectural works, diverse approaches to non-compliance with the classical criteria of assessment are examined and classified. In order to facilitate this endeavour -and to overcome the transcendental dualism of most classical critical approaches in architecture- this thesis puts forward an analytical, multidimensional model that formulates architectural instances as possible positions within a larger combinatory continuum of formal, structural and organisational qualities. Using this conceptual model, the apparent antagonism between Vitruvius’ principles and its non-compliant opposites is reframed as a continuous operative domain of architectural production, which in turn opens up a window of opportunity to expand the limits of our critical framework beyond the boundaries of classical paradigms. In doing so, this thesis attempts not only to foster a better understanding of some of the strategic approaches that characterise contemporary systems of architectural production, but also to inform future methodological approaches to architectural design, hence situating itself beyond the domain of the descriptive and moving towards the projective.
Resumo:
El objetivo de esta tesis es el diseño de una metodología que permita una valoración objetiva del funcionamiento o de la posible puesta en servicio de una vía de alta ocupación en un corredor congestionado. Las vías de alta ocupación surgen en Estados Unidos en la década de los 60 y no ha sido hasta muy entrada la década de los 90, cuando se ha pensado que estas vías de alta ocupación podían ser una solución a los problemas de congestión en el entorno europeo. La experiencia que se hereda de los casos americanos es importante, pero está inmersa en un marco con características sensiblemente diferentes a las europeas. Es por ello, que la primera labor que se ha realizado en esta tesis es la elaboración del marco conceptual y teórico adecuado, necesario para el correcto planteamiento de una metodología de evaluación. La revisión y el análisis, tanto de los planes de evaluación existentes, como de las propuestas desarrolladas en la literatura, unido a la clarificación del marco conceptual inherente a las vías de alta ocupación, ponen de relieve la necesidad de completar la práctica existente con herramientas que permitan cuantificar y valorar de manera adecuada, el funcionamiento o la puesta en servicio de una vía de alta ocupación. Sabiendo que el objetivo fundamental de una vía de alta ocupación es la reducción del número de usuarios del vehículo privado con un solo ocupante a modos de alta ocupación, y que este objetivo tiene necesariamente que estar en consonancia con las directrices de la actual política europea de transportes, se propone una metodología de cuatro fases que complementa a la práctica habitual y que la adapta al contexto europeo (sin olvidar que ya existe una labor previa en este aspecto, debido a la puesta en servicio de la vía de alta ocupación de la carretera N-VI de Madrid). Los objetivos de la metodología propuesta se centran en el estudio de la redistribución modal que debe producir la vía de alta ocupación desde el vehículo privado con un solo ocupante hacia los modos de alta ocupación (modos compartidos y transporte público), haciendo especial hincapié en las características necesariamente diferentes de los modos compartidos. El método de evaluación propuesto se articula en cuatro fases y se centra en la obtención (por medio de las tres primeras fases) de tres parámetros que van a regir la valoración positiva de la vía: el cambio modal neto (CMN), la estabilidad temporal del cambio (ETC) y las condiciones de operación en las vías convencionales (COV). El CMN indica si la vía de alta ocupación ha contribuído a la formación de los modos compartidos, el ETC indica si esta formación es una relación causal y el COV indica si se ha producido una contribución positiva al logro de una movilidad sostenible. Las posibles combinaciones derivadas de los valores de estos parámetros proporcionan a la Administración responsable una valoración objetiva de la vía de alta ocupación. El método de evaluación propone también, en función de estas combinaciones, las medidas más adecuadas a adoptar, bien para el logro de una mejora en las condiciones existentes, bien para el mantenimiento de las mismas. La aplicación práctica de esta metodología al caso de la vía de alta ocupación de la carretera N-VI, demuestra la validez, tanto de la metodología propuesta como de los parámetros que la sustentan. No obstante, se identifican una serie de limitaciones y consideraciones a matizar y que dan a pie a futuras líneas de investigación.
Resumo:
La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.
Resumo:
En el complejo de plagas que atacan a los principales cultivos hortícolas protegidos, destacan principalmente los Hemípteros, y dentro de estos los pulgones, dada su importancia como vectores de virus que provocan considerables daños y pérdidas económicas. Debido a que la dispersión de la mayoría de los virus de plantas puede ser eficaz con densidades bajas de vectores y su control es muy complicado al no existir métodos curativos para su control, es necesario generar nuevos conocimientos sobre las interacciones virus-vector con el fin de desarrollar nuevas y eficaces estrategias de control. Por ello, el objetivo general de esta Tesis ha sido conocer el efecto de la infección viral (directo-mediado por la presencia del virus en el vector- e indirecto-mediado por las alteraciones físico-químicas que se originan en la planta como consecuencia de la infección viral-) sobre el comportamiento y eficacia biológica del vector Aphis gossypii Glover y sus posibles repercusiones en la epidemiología de virosis de transmisión no persistente (Cucumber mosaic virus, CMV, Cucumovirus) y persistente (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). El primer objetivo de esta Tesis Doctoral, se centró en el estudio del efecto indirecto del virus de transmisión no persistente CMV sobre el comportamiento alimenticio y la preferencia del pulgón A. gossypii en el cultivo de pepino. Los ensayos de despegue y aterrizaje mostraron que los pulgones que fueron liberados en las plantas de pepino infectadas con CMV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (60, 120 y 180 minutos después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CMV). El estudio de preferencia y asentamiento mostró que el vector A. gossypii prefiere asentarse en plantas infectadas con CMV en una etapa temprana de evaluación (30 minutos después de la liberación). Sin embargo, este comportamiento se revirtió en una etapa posterior (4 y 48 horas después de la liberación), donde los pulgones se asentaron más en las plantas no infectadas. A través de la técnica de Gráficos de Penetración Eléctrica (EPG) se observó un efecto indirecto del virus CMV, revelado por un cambio brusco en el comportamiento de prueba del pulgón a lo largo del tiempo, cuando éstos fueron expuestos a las plantas infectadas con CMV. Los primeros 15 minutos de registro EPG mostraron que los pulgones hicieron un número mayor de punciones intracelulares (potencial drops - pds) y pruebas en las plantas infectadas con CMV que en las plantas no infectadas. Por otra parte, la duración de la primera prueba fue más corta y la duración total de las pds por insecto fue mucho más larga en las plantas infectadas con CMV. Se observaron diferencias significativas en el tiempo transcurrido desde el final de la última pd hasta el final de la prueba, siendo ese tiempo más corto para los pulgones que estaban alimentándose en plantas infectadas con CMV. En la segunda hora de registro los pulgones rechazaron las plantas infectadas con CMV como fuente de alimento, permaneciendo menos tiempo en las fases de prueba en floema (fase de salivación – E1 y fase de ingestión del floema – E2). El comportamiento alimenticio observado sobre las plantas infectadas con CMV favorece la adquisición y posterior transmisión de los virus de transmisión no persistente, los cuales son adquiridos e inoculados durante la realización de pruebas intracelulares en las primeras pruebas de corta duración. En el segundo objetivo de la Tesis se evaluó el efecto directo e indirecto del virus de transmisión persistente CABYV en el comportamiento alimenticio y preferencia del pulgón A. gossypii en cultivo de pepino, especie susceptible al virus, y algodón, especie inmune al virus. No se observó un efecto directo del virus relevante en el comportamiento alimenticio del vector, ya que los resultados obtenidos a nivel floemático en plantas de pepino no se observaron en plantas de algodón, inmune al virus CABYV. Esto sugiere que los resultados obtenidos en pepino, pueden deberse a un “posible efecto indirecto” originado por la infección de las plantas susceptibles al virus durante la realización del ensayo, lo que indirectamente puede modificar el comportamiento del pulgón durante la fase de evaluación. Sin embargo, el virus CABYV modificó indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada. Los pulgones tardaron menos tiempo en llegar al floema, realizaron un mayor número de pruebas floemáticas y permanecieron durante más tiempo en actividades floemáticas en plantas infectadas con CABYV. El comportamiento observado sobre las plantas infectadas con CABYV favorece la adquisición de virus persistentes, los cuales son adquiridos durante la alimentación sostenida en floema. El estudio de preferencia y asentamiento de A. gossypii mostró que los pulgones virulíferos prefieren asentarse en plantas no infectadas a corto y largo plazo de evaluación (2, 4 y 48 horas después de la liberación). Los ensayos de despegue y aterrizaje mostraron que los pulgones virulíferos que fueron liberados en las plantas de pepino infectadas con CABYV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (3, 6, 24 y 48 horas después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CABYV). Sin embargo, los pulgones no virulíferos no mostraron preferencia por plantas de pepino no infectadas o infectadas con CABYV en ninguno de los ensayos (preferencia o despegue) o periodos evaluados (corto y largo plazo). Los resultados indican que el virus CABYV es capaz de modificar indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada, favoreciendo su adquisición por su principal vector, A. gossypii. Una vez que los pulgones tienen capacidad de transmitir el virus (virulíferos) se produce un cambio en su comportamiento prefiriendo asentarse sobre plantas no infectadas optimizándose así la dispersión viral. El tercer objetivo de la Tesis, fue evaluar los efectos directos e indirectos del virus CABYV así como los efectos indirectos del virus CMV en la eficacia biológica del vector A. gossypii. Los resultados obtenidos en los ensayos realizados con el virus persistente CABYV indican que el virus parece no modificar directamente ni indirectamente la eficacia biológica del vector en plantas de pepino o algodón, no observándose diferencias estadísticas en ninguno de los parámetros poblacionales evaluados (tiempo de desarrollo, tasa intrínseca de crecimiento, tiempo generacional medio, tasa media de crecimiento relativo y ninfas totales). En cuanto a los ensayos realizados con el virus no persistente, CMV, los resultados muestran un efecto indirecto del virus sobre la biología del vector. Así resultó que tanto la tasa intrínseca de crecimiento natural (rm) como la tasa media de crecimiento relativo (RGR) fueron más altas para pulgones crecidos sobre plantas infectadas con CMV que sobre plantas no infectadas, favoreciendo la reproducción y crecimiento poblacional del vector sobre plantas infectadas con CMV. Los resultados obtenidos en la presente Tesis, ofrecen un ejemplo de como los virus de plantas pueden manipular directa e indirectamente a su vector, maximizando así su dispersión entre las plantas. Esos nuevos conocimientos generados tienen implicaciones importantes en la transmisión, dispersión y en la epidemiología de los virus y deben ser considerados para diseñar o ajustar los modelos de simulación existentes y patrones de dispersión que describen las epidemias de estos virus. ABSTRACT The main objective of this Thesis has been to understand the effect of the viral infection (direct-mediated by the presence of the virus in the vector and indirect mediated by the chemical and physical changes originated in the plant as a consequence of the viral infection) on the behaviour and biological efficacy of the vector Aphis gossypii Glover and its consequences in the epidemiology of two viral diseases, one with non-persistent transmission (Cucumber mosaic virus, CMV, Cucumovirus) and another with persistent transmission (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). The first objective of this Thesis was the study of the indirect effect of the nonpersistent virus CMV on the feeding behaviour and preference of the aphid A. gossypii in cucumber plants. The results of the alighting and settling behaviour studies showed that aphids exhibited no preference to migrate from CMV-infected to mock-inoculated plants at short time intervals (1, 10 and 30 min after release), but showed a clear shift in preference to migrate from CMV-infected to mock-inoculated plants 60 min after release. Our free-choice preference assays showed that A. gossypii alates preferred CMV-infected over mockinoculated plants at an early stage (30 min), but this behaviour was reverted at a later stage and aphids preferred to settle and reproduce on mock-inoculated plants. The electrical penetration graph (EPG) technique revealed a sharp change in aphid probing behaviour over time when exposed to CMV-infected plants. At the beginning (first 15 min) aphid vectors dramatically increased the number of short superficial probes and intracellular punctures when exposed to CMV-infected plants. At a later stage (second hour of recording) aphids diminished their feeding on CMV-infected plants as indicated by much less time spent in phloem salivation and ingestion (E1 and E2). This particular probing behaviour including an early increase in the number of short superficial probes and intracellular punctures followed by a phloem feeding deterrence is known to enhance the transmission efficiency of viruses transmitted in a NP manner. We conclude that CMV induces specific changes in a plant host that modify the alighting, settling and probing behaviour of its main vector A. gossypii, leading to optimum transmission and spread of the virus. The second objective of this work was to evaluate the effects that the persistently aphid transmitted Cucurbit aphid-borne yellows virus (CABYV) can induce directly and indirectly on the alighting, settling and probing behaviour activities of the cotton aphid A. gossypii. Only minor direct changes on aphid feeding behaviour was observed due to CABYV when viruliferous aphids fed on mock-inoculated plants. However, the feeding behaviour of non-viruliferous aphids was very different on CABYV-infected than on mockinoculated plants. Non-viruliferous aphids spent longer time feeding from the phloem when plants were infected by CABYV than on mock-inoculated plants, suggesting that CABYV indirectly manipulates aphid feeding behaviour through its shared host plant in order to favour viral acquisition. The vector alighting and settling preference was compared between nonviruliferous and viruliferous aphids. Viruliferous aphids showed a clear preference for mockinoculated over CABYV-infected plants at short and long time, while such behaviour was not observed for non-viruliferous aphids. Overall, our results indicate that CABYV induces changes in its host plant that modifies aphid feeding behaviour in a way that virus acquisition from infected plants is enhanced. Once the aphids become viruliferous they prefer to settle on healthy plants, leading to optimize the transmission and spread of the virus. The third objective was to evaluate the direct and indirect effects of CABYV and indirect effects of the CMV on the A. gossypii fitness. Obtained results for the persistent virus CABYV showed that the virus did not modify the vector fitness in cucumber or cotton plants. None of the evaluated variables was statistically significant (development time (d), intrinsic growth rate (rm), mean relative growth rate (RGR) and total number of nymphs). On the other hand, data obtained for the non-persistent virus (CMV) showed an indirect effect of the virus on the vector fitness. Thus, the rm and RGR were higher for aphids grown on CMV-infected plants compared to aphids grown on mock-inoculated plants. Overall, the obtained results are clear examples of how plant viruses could manipulate directly and indirectly vector behaviour to optimize its own dispersion. These results are important for a better understanding of transmission, dispersion and epidemiology of plant viruses transmitted by vectors. This information could be also considered to design or adjust simulation models and dispersion patterns that describe plant virus epidemics.
Resumo:
La presente investigación trata de responder la siguiente pregunta: ¿hay un proceso de confluencia ideológica a lo largo de los siglos XIX y XX de los liberales y conservadores mexicanos en un proyecto educativo nacionalista? Para responderla, el trabajo analiza la disputa ideológica de tipo histórico en torno a la educación entre la élite liberal y la conservadora católica (incluida la jerarquía católica) mexicanas, con referencia a las relaciones Iglesia-Estado y al proceso de construcción de la nación. Dicho en otros términos, este trabajo analiza la construcción de la nación en México a través de la educación durante el periodo 1857-1982. En este estudio se considera que el origen de la nación mexicana es resultado de un proceso de construcción orquestado por las élites. El proceso se inició formalmente con la independencia de España en 1821. Desde entonces, las élites consideraron a la educación como una herramienta fundamental para trasmitir sus valores y construir los emblemas representativos de la nación. Las élites políticas percibieron que el monopolio de la educación les dotaba de ventajas sobre sus competidores, ya que proporcionaba diversos recursos institucionales para el ejercicio del poder y su conservación. En la disputa por el control de la educación, la Iglesia Católica (y el conservadurismo católico) proponía que la orientación moral del Estado, así como los valores de la democracia y la participación política, deberían sustentarse sobre una educación integral que incluyera la religión católica como parte de la regeneración moral de los individuos. Por su parte, la élite liberal dedicó el quehacer público a la secularización de la educación y a crear una sociedad racional que se liberara del oscurantismo y del fanatismo religioso. El conflicto se agudizó cuando la Iglesia Católica perdió el monopolio educativo con las Leyes de Reforma (1855-1863); entonces comenzó una fuerte competencia con el Estado (el Gobierno) por el control ideológico y político de la sociedad. Por su parte, la élite política liberal impidió el avance del conservadurismo católico y se hizo con los recursos institucionales (formales e informales) para conservar y legitimar su control del poder...
Resumo:
Esta Tesis doctoral está orientada al estudio de estrategias y técnicas para el tratamiento de oclusiones. Las oclusiones suponen uno de los principales problemas en la percepción de una escena mediante visión por computador. Las condiciones de luz, los puntos de vista con los que se captura información de la escena, las posiciones y orientaciones de los objetos presentes en la escena son algunas de las causas que provocan que los objetos puedan quedar ocluidos parcialmente. Las investigaciones expuestas en esta Tesis se pueden agrupar en función de su objetivo en dos grupos: técnicas cuya finalidad es detectar la presencia de oclusiones y estrategias que permiten mejorar la percepción de un sistema de visión por computador, aun en el caso de la presencia de oclusiones. En primer lugar, se han desarrollado una serie de técnicas orientadas a la detección de oclusiones a partir de procesos de extracción de características y de segmentación color en imágenes. Estas técnicas permiten definir qué regiones en la imagen son susceptibles de considerarse zonas de oclusión, debido a una mala percepción de la escena, como consecuencia de observarla con un mal punto de vista. Como aplicación de estas técnicas se han desarrollado algoritmos basados en la segmentación color de la imagen y en la detección de discontinuidades mediante luz estructurada. Estos algoritmos se caracterizan por no incluir conocimiento previo de la escena. En segundo lugar, se han presentado una serie de estrategias que permiten corregir y/o modificar el punto de vista de la cámara con la que se observa la escena. De esta manera, las oclusiones identificadas, mediante los métodos expuestos en la primera parte de la Tesis, y que generalmente son debidas a una mala localización de la cámara pueden ser eliminadas o atenuadas cambiando el punto de vista con el que se produce la observación. En esta misma línea se presentan dos estrategias para mejorar la posición y orientación espacial de la cámara cuando ésta se emplea para la captura de imágenes en procesos de reconocimiento. La primera de ellas se basa en la retroproyección de características obtenidas de una imagen real, a partir de una posición cualquiera, en imágenes virtuales correspondientes a las posibles posiciones que puede adoptar la cámara. Este algoritmo lleva a cabo la evaluación de un mapa de distancias entre estas características buscando en todo momento, maximizar estas distancias para garantizar un mejor punto de vista. La ventaja radica en que en ningún caso se hace necesario mover la cámara para determinar una nueva posición que mejore la percepción de la escena. La segunda de estas estrategias, busca corregir la posición de la cámara buscando la ortogonalidad. En este caso, se ha partido de la hipótesis inicial de que la mayor superficie visible siempre se suele conseguir situando la cámara ortogonalmente al plano en el que se sitúa el objeto.
Resumo:
Este trabajo de investigación analiza los efectos que produce individualmente un proceso de coaching entre estudiantes de nuevo ingreso y de último curso del grado en Sociología de la Universidad de Alicante que, de forma voluntaria, han adquirido el compromiso de desarrollar sus valores personales y competencias académicas a través de esta herramienta. Partiendo de la metodología y datos obtenidos en la Trait Meta-Mood Scale (TMMS)-24, del grupo de investigación de Salovey y Mayer, se evalúa la Inteligencia Emocional. Este test se administra al inicio y al final del proceso a los estudiantes del curso 2014/2015. Además, se evalúan los datos resultantes de la aplicación de un modelo de cuestionario inicial, utilizado en coaching ejecutivo para el entorno empresarial y adaptado al contexto universitario, para conocer la situación de partida de cada estudiante. Se analizan comparativamente los resultados académicos obtenidos por los participantes en el proyecto durante los cursos 2013/2014 y 2014/2015.
Resumo:
Este trabajo se centra en el análisis de una asignatura y del sistema de evaluación formativo que estamos utilizando en la misma. Se trata de la asignatura “Gestión de la calidad y del medio ambiente” de cuarto curso del Grado en Administración y Dirección de Empresas de la Universidad de Alicante. Como su nombre indica, la asignatura analiza dos sistemas de gestión (gestión de la calidad y gestión del medio ambiente). En nuestro trabajo se persigue un objetivo principal desde un punto de vista longitudinal, comparando los dos primeros años de impartición de esta asignatura. En concreto, se analiza el sistema de evaluación formativo que se está utilizando, describiendo las distintas partes que componen esta evaluación continua y formativa. Para ello, se utiliza información recogida a través de un cuestionario al que han respondido los estudiantes, especialmente sobre el grado de dificultad y utilidad de los diversos elementos y actividades de este sistema de evaluación. El análisis y reflexión sobre estos temas vinculados a los sistemas de evaluación tiene como propósito principal mejorar de forma continua esta asignatura.
Resumo:
El trabajo que se presenta está enmarcado en la RED Investigación e innovación en evaluación por competencias en formación Educación Especial. Uno de los retos que debe de asumir la escuela del siglo XXI es la inclusión educativa de todo su alumnado. Es necesario desde la formación inicial del profesorado establecer competencias que hagan posible la asunción e implementación de dicho reto. Tomando como punto de partida el trabajo colaborativo y coordinado que supone llevar a cabo procesos de innovación en docencia universitaria, se ha planteado en esta investigación realizar un análisis sobre las distintas materias de los Grados de Maestro de Educación Infantil y Primaria en relación a las competencias en materia de Educación Especial que de éstas subyacen. Para ello, partiendo de una tabla de especificación de competencias se ha construido una rúbrica de indicadores para la evaluación de éstas. Los primeros resultados obtenidos muestran la necesidad de incorporar propuestas de innovación desde la perspectiva de la evaluación auténtica y competencial en materia de Educación Especial en la formación de los estudiantes de los Grados de Infantil, Primaria y Pedagogía Terapéutica.
Resumo:
Este trabajo presenta el proceso de validación de una Escala de Autoevaluación de competencias digitales para estudiantes de Pedagogía. La estructura del instrumento contempla cinco dimensiones: Pedagógica - Social, Ética y Legal - Técnica - Gestión Escolar y Desarrollo Profesional. El procedimiento consideró la validación de contenido, validación de constructo a través del Análisis Factorial y la determinación de fiabilidad a través del alfa de Cronbach. La escala se aplicó a una muestra de 161 estudiantes de Pedagogía de la Universidad del Bío-Bío (Chile) que habían comenzado la actividad de práctica profesional. El proceso desarrollado permitió dar validez científica al instrumento diseñado.
Resumo:
Objective: Identify preventive self-care practices and analyze the configurations of the network support for women with and without breast cancer registered in a mammography-monitoring project from Porto Alegre/Brazil.Method: a mixed sequential delimitation was performed, which expanded the results of the quantitative step (cross and correlation section) in a qualitative step (narrative interviews). 37 women diagnosed with breast cancer (group 1) and 72 without this diagnosis (group 2 – monitoring) participated. The following instruments were used: Assessment Questionnaire Self-care Ability (ASA-A) and Assessment Questionnaire Perceived Social Support and Community. There were performed descriptive analysis and comparison of means (t test and ANOVA) between the two groups. To deepen the understanding of the data, we selected four women with breast cancer with extreme levels on the scale of Social Support to participate in the biographical narrative interviews.Results: the analysis indicate that women who had breast cancer have better self-care practices than the women from the monitoring project (t = 1.791, P = 0.027). As for the analysis of social support, there were no statistically significant differences between the two groups. All participants have an average level of perceived social and community support. It was highlighted by the qualitative data that it was after the diagnosis of breast cancer that women lived self-care aspects they had not previously experienced.Conclusions: the self-care was significantly bigger in the group of women with breast cancer, where the cancer diagnosis was a trigger to increase self-care.
Resumo:
Este artículo presenta una investigación en la que se analizan las dificultades del profesorado para planificar, coordinar y evaluar competencias claves en una muestra de 23 centros educativos. El tema tiene hondas repercusiones ya que una mala praxis educativa de las competencias claves puede conculcar uno de los derechos fundamentales del alumnado a ser evaluado de forma objetiva (LODE: Art.6b y RD 732/1995: Art. 13.1) y poder superar las pruebas de evaluación consideradas necesarias para la obtención del título académico mínimo que otorga el estado español. La investigación se ha desarrollado desde una doble perspectiva metodológica; en primer lugar, es una investigación descriptiva en la que presentamos las características fundamentales de las competencias claves y la normativa básica para su desarrollo y evaluación. En segundo lugar, aplicamos un procedimiento de análisis con una doble vertiente cualitativa mediante el empleo del programa Atlas-Ti y del enfoque reticular-categorial del análisis de redes sociales con la aplicación de UCINET y el visor yED Graph Editor para abordar el análisis de las principales dificultades y obstáculos detectados. Los resultados muestran que existen serias dificultades en las tres dimensiones analizadas: "planificación", "coordinación" y "evaluación" de competencias clave; especialmente en la necesidad de formación del profesorado, en la evaluación de las competencias, en la metodología para su desarrollo y en los procesos de coordinación interna para su consecución en los centros educativos.