1000 resultados para Calidad del empleo
Resumo:
El uso de hormigón autocompactante se ha convertido en algo habitual desde su aparición a finales de la década de los 80 gracias a la reducción de costes de mano de obra, la buena calidad del acabado superficial y su uso en piezas fuertemente armadas. Por otro lado, los hormigones reforzados con fibras aportan una mejora en las propiedades mecánicas que puede permitir la reducción de armados y, en general, mejorar la respuesta del material ante todo tipo de solicitaciones, especialmente de tracción. En este trabajo se ha estudiado el comportamiento mecánico de un hormigón autocompactante con fibras de poliolefina. Se han obtenido resultados de caracterización mecánica y de fractura de un hormigón autocompactante de referencia sin fibras y de tres dosificaciones con fibras desde 3 kg/m³ hasta 6 kg/m³. Estos resultados han proporcionado un notable incremento en los valores de resistencia post-fisuración y de energía de fractura sin perjuicio de sus propiedades autocompactantes en estado fresco. Since the development of the first Self-Compacting Concrete in the late 80’s, its use has become widespread due to the reduction of the labor costs, the good finishing quality and the achieving of the necessary fluidity for congested reinforced pieces. Furthermore, Fiber Reinforced Concrete provides improvements of the mechanical properties which may even permit the reduction of the reinforcement. The mechanical behavior of a Self-Compacting Concrete with polyolefin fibers has been explored in this research. Results for mechanical properties and for fracture and post-cracking toughness have been obtained. The experimental campaign has been performed for a plain Self-Compacting Concrete and for three different fiber dosages from 3 kg/m³ to 6 kg/m³. These results show a significant enhancement of the post-cracking strength and the fracture energy without harming in the concrete self-compacting properties in fresh state.
Resumo:
La salinización en suelos de cultivos es un fenómeno muy relevante en el Sureste español que se produce por el empleo de aguas de riego salinas o de mala calidad. La lechuga (Lactuca sativa L.) es uno de los cultivos hortícolas de mayor implantación en esta área, destinándose principalmente para consumo en fresco y en productos cuarta gama. La salinidad puede afectar a la productividad y calidad del cultivo, sin embargo, en determinadas concentraciones investigaciones previas muestran que la salinidad puede favorecer la conservación de las hojas tras el corte, disminuyendo los procesos de degradación enzimática y el desarrollo de microorganismos. El objetivo del presente trabajo es evaluar la viabilidad de la imagen hiperespectral (400 a 1000 nm) para identificar la influencia del estrés salino en lechuga ?baby? recién recolectada. Para ello, se han adquirido imágenes de 40 hojas de diferentes lechugas sometidas a tres soluciones salinas diferentes y a una solución control. Dichas imágenes fueron sometidas a preprocesado de espectros (suavizado con el algoritmo Savitsky-Golay + normalización SNV), combinado con Análisis de Componentes Principales. Las imágenes virtuales de scores generadas con el modelo muestran diferencias progresivas en los valores asignados a los píxeles de las imágenes a medida que aumenta la concentración salina de la solución aplicada al cultivo. Se observa cómo la solución salina afecta a la hoja cambiando la coloración de las zonas medias, posiblemente debido a la concentración de solutos. La interpretación de los loadings de estos modelos permite conocer cómo afecta la salinidad al comportamiento espectral de las hojas. La imagen hiperespectral puede tener un gran potencial para identificar los límites de salinidad tolerados y evitar concentraciones tóxicas que afecten negativamente la vida útil de las hortalizas de hoja. Este conocimiento permitirá desarrollar índices multiespectrales capaces de identificar hojas afectadas por salinidad durante su cultivo y procesado postcosecha.
Resumo:
Las estructuras de hormigón son susceptibles de sufrir los efectos asociados a las acciones de fatiga cuando estas se ven sometidas a un elevado número de cargas repetidas. Muchas de estas estructuras no requieren armadura transversal para cumplir los condicionantes de dimensionamiento estático como por ejemplo las losas superiores de tableros de puentes, los muros de contención, las losas de transición de puentes, las torres eólicas o las estructuras marítimas. La mayor parte de los códigos de diseño vigentes no incluyen una comprobación específica del nivel de seguridad a cortante de estas estructuras para acciones de fatiga, y aquellas que lo hacen prefieren utilizar expresiones de tipo empírico basadas en curvas S-N que relacionan el número de ciclos resistentes con el valor de la carga aplicada. A pesar de que el empleo de curvas S-N es de gran utilidad desde un punto de vista práctico, estas curvas no permiten comprender el proceso de rotura por cortante para cargas repetidas. El objetivo principal de esta Tesis es el de estudiar el comportamiento a cortante de elementos de hormigón armado sin cercos sometidos a fatiga. Además, el análisis es ampliado al estudio del comportamiento transversal de los voladizos de las losas superiores de tableros de puentes de hormigón que de forma habitual son diseñados sin armadura de cortante. De forma habitual estos elementos se diseñan atendiendo a criterios de dimensionamiento estáticos sin tener en cuenta la resistencia a cortante cuando se ven sometidos a cargas cíclicas. A pesar de que las cargas de fatiga son inferiores a aquellas que producen el fallo estático, es importante tener en cuenta el comportamiento de estos elementos ante cargas repetidas. Los trabajos experimentales existentes en vigas de hormigón armado sin cercos evidenciaron diferencias significativas entre los modos de fallo ante cargas estáticas y cíclicas. Estos trabajos llegaron a la conclusión de que estos elementos diseñados para tener un fallo dúctil por flexión pueden llegar a desarrollar un tipo de fallo frágil por cortante cuando se ven sometidos a cargas repetidas. El proceso de rotura por cortante en elementos de hormigón armado sin cercos sometidos a fatiga es un proceso complejo que debe ser estudiado en profundidad debido al carácter frágil de este tipo de fallo. Los trabajos experimentales permitieron comprobar que el origen de este fallo tiene lugar tras la formación de una fisura de cortante a partir de una fisura de flexión formada durante los primeros ciclos en el vano de cortante. Tras la formación de esta fisura, esta se va propagando hacia la cabeza de compresión hasta que finalmente se produce el fallo como consecuencia de la destrucción de la cabeza de compresión cuando la altura alcanzada por esta es insuficiente para resistir la fuerza de compresión aplicada en esta zona. Por otra parte, la propagación de esta fisura diagonal puede desarrollarse por completo en el instante en el que esta se forma derivando en un tipo de fallo por cortante más frágil que el anterior. El proceso de fatiga es estudiado en esta Tesis mediante un modelo mecánico. Por una parte, se propone un modelo predictivo para determinar el número de ciclos acumulados hasta que se forma la fisura diagonal en función del estado tensional que se tiene en la punta de una fisura crítica de flexión formada en los primeros ciclos. Por otra parte, la resistencia a fatiga tras la formación de la fisura diagonal se analiza teniendo en cuenta el daño por fatiga acumulado en la cabeza de compresión y las variables que afectan a la propagación de esta fisura de cortante. Para la evaluación de la resistencia a fatiga tras la formación de la fisura crítica de cortante en este tipo de elementos, se plantea un modelo teórico basado en conceptos de Mecánica de la Fractura adaptados al hormigón. Este modelo puede ser aplicado a vigas de hormigón armado sin cercos de canto constante o variable siguiendo diferentes procedimientos. Una campaña experimental ha sido llevada a cabo con el objetivo de estudiar el comportamiento a cortante de vigas de hormigón armado sin cercos de canto variable sometidas a cargas estáticas y de fatiga. Se han desarrollado un total de diez ensayos estáticos y de fatiga para diferentes niveles de carga y esbelteces de cortante, teniendo lugar diferentes modos de fallo. Estos elementos fueron diseñados para reproducir, a escala real y de forma simplificada, los voladizos laterales de las losas superiores de tableros de puentes de carretera de hormigón. Los resultados experimentales demostraron que el tipo de fallo desarrollado depende de varios parámetros como por ejemplo el nivel de carga máxima, el nivel de oscilación de tensiones en la armadura longitudinal, la esbeltez de cortante o la calidad del hormigón utilizado entre otros. Para valores similares de esbeltez de cortante, los ensayos de fatiga realizados permitieron comprobar que la rotura por cortante de estos elementos está asociada a niveles de carga máxima elevados, mientras que el fallo por fatiga de la armadura longitudinal tiene mayor probabilidad de ocurrir en elementos sometidos a elevados niveles de oscilación de tensiones en esta armadura. Además, estos ensayos han sido analizados a través del modelo propuesto para tratar de comprender el comportamiento resistente de estos elementos sometidos a cargas de fatiga. Concrete structures are able to suffer fatigue when they are subjected to high number of cyclic loads. Many of these need not shear reinforcement to satisfy static design requirements, such as bridge deck slabs, retaining walls, bridge approach slabs, wind towers or maritime structures among others. Many codes of practice do not include a verification of the shear fatigue safety. Moreover, those which include it still prefer empirical S-N-based approaches that provide the number of cycles as a function of applied forces. S-N models are practical but they do not provide information to understand the shear fatigue process. The main objective of this Thesis is to study shear behaviour of reinforced concrete elements without stirrups subjected to fatigue loads. In addition, the analysis is extended in order to study the transverse behaviour of cantilever slabs of concrete bridges that traditionally are designed without shear reinforcement. These elements usually are designed on the basis of static strength and it is unusual that codes consider fatigue strength of concrete in shear. Accordingly, it is important to take into account the fatigue behaviour of structural members subjected to cyclic loads although these loads are lower than those which produce the static failure. Existing experimental works show important differences between the static and cyclic failure modes of reinforced concrete beams without stirrups. These works concluded that beams without transverse reinforcement, designed to have a ductile failure mode in flexure, can submit a brittle shear failure mode when they are subjected to repeated loads. Shear fatigue failure of reinforced concrete beams without stirrups is a rather complex process from the mechanical viewpoint. Since it leads to a brittle failure mode it should be better understood. Experimental evidence indicates that a diagonal crack first develops from the inclination of flexural cracks in the shear span. Thereafter, the diagonal crack propagates into the compression zone. Failure normally takes place by the destruction of the compression zone when its depth is too small to resist the applied force. The propagation of the diagonal crack can also be instantaneous, leading to sudden diagonal cracking fatigue failure rather than shear-compression failure. Fatigue process is studied in this Thesis on a mechanical basis. On the one hand, a predictive model is derived to obtain the number of cycles up to diagonal cracking, as a function of the stress state at the tip of a critical flexural crack. On the other hand, the residual fatigue strength after diagonal cracking is analyzed taking into account the fatigue damage accumulated by the compression zone and the variables affecting the propagation of the diagonal crack. In order to assess the residual fatigue strength after diagonal cracking of such elements, a theoretical model is proposed based on concepts from fracture mechanics adapted to concrete. This model can be successfully applied for straight or haunched reinforced concrete beams without stirrups following different procedures. In order to achieve a more advanced knowledge in this subject, an experimental campaign has been carried out with the aim of study the shear behaviour of reinforced concrete haunched beams without stirrups subjected to static and fatigue loads. A total of ten static and fatigue tests have been performed with distinct load levels and shear span-to-depth ratios, presenting different failures modes. These elements were designed to reproduce in a simplified form the cantilever slab of concrete bridges at real scale. Experimental results showed that the type of failure depends on several parameters as for example the maximum load level, the stress oscillation level on the longitudinal reinforcement, the shear span-to-depth ratio or the quality of the concrete used among others. For a similar value of the shear span-to-depth ratio, tests evidenced that shear fatigue failure is related to high maximum load levels, while steel fatigue failure is easier to occur in elements subjected to high stress oscillation level on the reinforcement bars. Besides, these tests have been analyzed through the proposed model in order to clarify the structural behaviour of such elements subjected to fatigue loads.
Resumo:
Durante décadas y aun en la actualidad muchas organizaciones, a nivel mundial, continúan afrontando pérdidas significativas debido a fracasos parciales y totales respecto a sus inversiones en sistemas de información (SI), planteando serios retos a los niveles gerenciales y los profesionales de SI. Estadísticas alarmantes y décadas de experiencia en la praxis en el área de SI en diversas organizaciones llevan al autor a poner el énfasis en los usuarios finales internos (UF) que son designados como representantes (UFR) de sus pares en los proyectos de desarrollo de SI (PDSI) por considerarlos como factores influyentes de manera significativa en el problema. Particularmente, con enfoque en ciertos factores de los UFR críticos para el éxito de los PDSI, con dimensiones analizadas de forma aislada o incompleta en otros estudios empíricos, a la fecha. No se encontraron estudios en Latinoamérica ni en otras latitudes que abordasen el fenómeno del éxito/fracaso de los SI desde el punto de vista adoptado en esta tesis. Por ello, esta investigación empírica ha evaluado en qué grado estos factores pudiesen influenciar los resultados durante el desarrollo e implementación de SI y su posible impacto en la satisfacción de los UF, siendo esta última aceptada por variados autores como la principal medida del éxito de los SI. Este estudio fue realizado en América Latina en las cuatro grandes empresas industriales que integran verticalmente el sector aluminio de Venezuela, sometidas a un macro PDSI para instalar el paquete, de tipo ERP, SAP/R3. Experimentados profesionales fueron encuestados o entrevistados, tales como altos ejecutivos, desarrolladores, líderes de proyecto y líderes de los UF. Un enfoque metodológico de triangulación permitió combinar un análisis cuantitativo con un análisis cualitativo interpretativo del tipo hermenéutico/dialéctico, hallándose resultados convergentes y complementarios. Un análisis estadístico, utilizando Partial Least Squares (PLS), seguido de un análisis hermenéutico/dialéctico. Los resultados confirmaron un hecho importante: en los casos problemáticos, paradójicamente, los orígenes de las razones de rechazo de esos SI argumentadas por los UF, en alto grado, apuntaron a los UFR o a ellos mismos. Los resultados también confirmaron la prevalencia de factores de orden cognitivo, conductual y político en estas organizaciones sobre los tecnológicos, al igual que el alto riesgo de dar por sentado la presencia y calidad de los factores requeridos de los UFR y de los otros factores estudiados. La validación estadística del modelo propuesto reveló al constructo conocimientos de los UFR como la principal variable latente, con los variables indicadoras que componen este constructo ejerciendo la mayor influencia sobre la calidad y el éxito de los SI. Un hallazgo contrario al de otros estudios, mostró que los conocimientos sobre las tecnologías de la información (TI) fueron los menos relevantes. Los SI de nómina y de administración de los RRHH fueron los más problemáticos, como suele ser el caso, por su complejidad en organizaciones grandes. Las conclusiones principales confirman el decisivo rol de los UF para el éxito de los PDSI y su relación con la creciente problemática planteada, la cual amerita más investigación y de las organizaciones una mayor atención y preparación. Descuidar los factores humanos y sociales así como una efectiva planificación y gestión de los mismos en preparación para estos proyectos origina serios riesgos. No obstante las limitaciones de este trabajo, la problemática analizada suele influir en los PDSI en diversas organizaciones, indistintamente de su tamaño o tipo de SI, estimándose, por tanto, que los resultados, conclusiones y recomendaciones de esta investigación tienen un alto grado de generalización. Una relación de indicadores claves es suministrada con fines preventivos. Finalmente, los factores evaluados pueden usarse para ampliar el modelo reconocido de DeLone y McLean (2003), conectándolos como variables latentes de sus variables independientes calidad de la información y calidad del SI. ABSTRACT For decades, many organizations worldwide have been enduring heavy losses due to partial and total failures regarding their investments in information systems (IS), posing serious challenges to all management levels and IS practitioners. Alarming statistics in this regard and decades of practice in the IS area lead the author to place an emphasis on the end users (EU) who are appointed in representation of their peers (EUR) to IS development projects (ISDP), considering them as highly influential factors on the problem. Especially, focusing on certain EUR success factors, and their dimensions, deemed critical to any IS development and implementation, omitted or not thoroughly analyzed neither in the theory nor in the empirical research on the subject, so far. No studies were found in Latin America or elsewhere addressing the phenomenon of IS success/failure from the perspective presented herein. Hence, this empirical research has assessed to what degree such factors can influence the outcomes of an ISDP and their feasible impact on the EU´s satisfaction, being the latter accepted by several authors as the main measure of IS success. This study was performed in Latin America embracing four major industrial enterprises, which vertically integrate the aluminum sector of Venezuela, subjected to a macro ISDP to install the ERP-type package SAP/R3. The field work included surveying and interviewing experienced professionals such as IS executives, IS developers, IS project leaders and end-user project leaders. A triangulation methodological approach allowed combining quantitative and interpretive analyses, obtaining convergent and complementing results. A statistical analysis, using Partial Least Squares (PLS), was carried out followed by a hermeneutical/dialectical analysis. Results confirmed a major finding: in problematic cases, paradoxically, the origins of IS rejection reasons argued by the EU, at a high degree, were usually traceable to the EUR and themselves. The results also confirmed the prevalence of cognitive, behavioral and political factors in these organizations as well as the high risk of taking for granted the presence and quality of those factors demanded from the EUR. The statistical validation of the proposed model revealed the construct EUR knowledge as the main latent variable, with its items exerting a major influence on IS quality and success. Another finding, in contradiction with that of other studies, proved knowledge of information technology (IT) aspects to be irrelevant. The payroll and the human resources administration IS were the most problematic, as is usually the case in large companies. The main conclusions confirm the EU´s decisive role for IS success and their relationship with the problem, which continues, demanding more research and, from organizations, more attention and preparation. Neglecting human and social factors in organizations as well as their effective planning and management in preparation for ISDP poses serious risks. Despite the limitations of this work, the analyzed problem tends to influence ISDP in a wide range of organizations; regardless of their size or type of IS, thus showing a high degree of generalization. Therefore it is believed that the results, conclusions and suggestions of this research have a high degree of generalization. A detailed checklist comprising key measures is provided for preventive actions. Finally, the factors evaluated can be used to expand the well-known model of DeLone & McLean (2003), by connecting them as latent variables of its independent variables information quality and IS quality.
Resumo:
La documentación en los proyectos software presenta una serie de problemas que afectan a la calidad del producto y al proceso software. Con frecuencia, la documentación es considerada sólo como un volumen adicional de información disponible para la organización y el equipo de desarrollo, que ralentiza la ejecución del proyecto. En este sentido, el papel de la documentación en un proyecto se concibe como una de las actividades más costosas y que consumen más tiempo y que luego no se utiliza de forma extensiva. La documentación queda, en muchos casos, relegada a un segundo plano y es poco valorada frente a la comunicación cara a cara. Existe además una relación entre la calidad de la documentación y el proceso software. Se plantean dificultades en la adopción de buenas prácticas de proceso software y el impacto del exceso de documentación percibido por parte de los gestores de proyectos en los que se quiere abordad un programa de mejora del proceso software. Recordemos que la calidad de la documentación está muy relacionada con la utilización de la misma que puedan hacer los desarrolladores. Esta tesis aborda el problema planteando un cambio de punto de vista en el proceso software, en el que la documentación pasa de ser un sub producto de las actividades y tareas del proceso a ser el elemento que vertebra el propio proceso. En este nuevo punto de vista, la definición de los propios documentos, sus propiedades y relaciones permiten establecer y guiar procesos software de cualquier tipo. Para ello, desarrolla un metamodelo para definición de metodologías centradas en documentos. Este metamodelo se confronta con una serie atributos de calidad de la documentación software para comprobar que existe una mejora sobre estos, y, por consiguiente se mejora la calidad de la documentación software en general. Por último se utiliza este metamodelo centrado en documentos para describir una metodología ágil (Scrum) y validar la capacidad y flexibilidad del metamodelo utilizando el cambio de punto de vista sobre el proceso software planteado en esta tesis. ABSTRACT The documentation in software projects has a number of problems affecting the quality of the product and the software process. Often, documentation is considered only as an additional volume of information available to the organization and development team, which slows project execution. In this sense, the role of documentation in a project is conceived as one of the most expensive activities and more time-consuming and then not used extensively. The documentation is, in many cases, relegated to the background and is undervalued compared to face-to-face communication. There is also a relationship between the quality of the documentation and software process. There are difficulties in adopting good practices of software process and the impact of excess documentation perceived by project managers in Software Process Improvement activities. We have to remember that quality of the documentation is closely related to the use of it that can make developers. This thesis addresses the problem considering a change of view on the software process, in which the documentation happens to be a by-product of the activities and tasks of the process to be the element that structures the process itself. Through this new view, the definition of the documents themselves, their properties and relationships, allow us to establish processes and guidance for develop software of any kind. To achieve this target, a metamodel for defining document-centric methodologies has been developed. This metamodel confronts a number of quality attributes software documentation to prove that there is an improvement on these, and therefore the quality of the software documentation is improved. Finally this document-centric metamodel is used to describe an agile methodology (Scrum) to validate the capability and flexibility of the metamodel, using the proposed change of view on the software process described in this thesis.
Resumo:
En este trabajo se desarrolla un modelo teórico que trata de formalizar el efecto de la existencia de determinados costes de transacción sobre el diseño de un contrato óptimo entre una Administración Pública (el principal en el contrato) y un agente para la prestación de un determinado servicio público. El modelo que se plantea es aplicable a cualquier tipo de contrato para la gestión de un servicio público, siempre que utilice un mecanismo de remuneración al contratista basado en el nivel de calidad obtenido. Con estas premisas, el problema que se estudia es el de alcanzar niveles óptimos en la calidad del servicio y en los costes de transacción, en el marco de un contrato incompleto, y tomando como objetivo la maximización de una función de bienestar social. Los resultados alcanzados en el modelo muestran que el nivel óptimo de los costes de transacción ex ante (es decir, previos a la firma del contrato) viene determinado por el parámetro que representa la actitud ante el riesgo del contratista: a mayor aversión al riesgo de éste, mayores serán los costes de transacción y menor la varianza de los costes de producción del servicio, en la situación óptima. Por otra parte, los niveles de calidad óptimos y el peso de la remuneración al contratista basada en los niveles de calidad, serán mayores cuanto más elevados sean los beneficios sociales marginales de cada una de las dimensiones de la calidad del servicio, y disminuirán al aumentar el coste marginal de los recursos públicos. Los costes de transacción ex post , derivados de la necesidad de medir y controlar los niveles de calidad alcanzados por el contratista, determinan en el modelo las dimensiones de la calidad en que debe centrarse el sistema de remuneración del contratista, eliminando aquellas en que no está justificado establecer un sistema de medición y control, lo que reduce el nivel total de calidad alcanzado respecto al que resultaría en condiciones de costes de transacción nulos
Resumo:
En esta investigación se aborda el tema de los paisajes sonoros urbanos a partir del análisis de doce espacios públicos abiertos de la Ciudad de Córdoba (Argentina) tomados como casos de estudio, buscando definir e interrelacionar los indicadores objetivos que pueden caracterizar el paisaje sonoro y su relación con componentes físicos del paisaje. En una primera etapa, la investigación se orienta a profundizar en el estudio de las variables que influyen en la percepción acústica de los espacios exteriores, los tipos de fuentes sonoras y el nivel de aceptación que las mismas producen en los usuarios. El estudio se ha realizado por medio de encuestas y mediciones objetivas, destinadas a reconocer paisajes sonoros cuyo contenido semántico puede ser de importancia para la identidad de los habitantes y detectar las fuentes sonoras involucradas. El proceso de análisis cruzado realizado entre los datos objetivos y subjetivos permitió identificar los descriptores acústicos que se pueden interrelacionar con la respuesta de los usuarios para definir la calidad de un paisaje sonoro. En paralelo a las mediciones de nivel de ruido se realizaron registros de audio de los intervalos, de cuyo procesamiento posterior se pudieron deducir parámetros psicoacústicos que complementan los descriptores acústicos anteriores, y que en conjunto son utilizados para describir objetivamente la calidad sonora de los espacios urbanos. En el proceso se seleccionaron aquellos descriptores que se evidencian como significativos y con mejor correlación con los niveles de calidad del paisaje sonoro, adoptando en este trabajo la sonoridad, la nitidez, la relación LCeq-LAeq y la diferencia L10-L90. Cada uno de los parámetros describe o refleja un aspecto característico de un ambiente sonoro de alta calidad o “hi-fi”, como la presencia de sonidos con posible contenido semántico (nitidez), la presencia o no de bajas frecuencias y la relación figura-fondo de los escenarios sonoros. En la investigación se observa que, si bien existe una correlación de estos indicadores con la calidad sonora de los espacios, la misma no es lineal. Por el contrario, la importancia o influencia relativa dependen de las interrelaciones que se producen entre los parámetros estudiados, quedando en evidencia la dificultad de aplicar una metodología de análisis basada en la lógica clásica. Como alternativa se aplica un modelo de análisis y correlación de los parámetros con la calidad sonora basada en los postulados de la lógica difusa, observando que se logra una aproximación muy ajustada a la respuesta subjetiva de los habitantes. Este ajuste alcanzado entre los resultados del modelo y la respuesta subjetiva de los usuarios permite confirmar el modelo borroso como una herramienta efectiva para el estudio, no solo de los paisajes sonoros, sino también para aquellas situaciones donde los parámetros objetivos deben ser relacionados con la respuesta subjetiva de los usuarios.
Resumo:
La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.
Resumo:
La finalidad de este proyecto es el estudio de la recuperación del último tramo del arroyo de las Canteras a su paso por Castro del Río, eliminando el canal existente para dotar al arroyo de cierta naturalidad y proponiendo distintas alternativas que solucionen los problemas de erosión y los recurrentes problemas de inundaciones en la localidad. Para la realización del proyecto, se han analizado tanto las condiciones del tramo fluvial como las correspondientes a la cuenca vertiente mediante una caracterización completa. Por otro lado, se ha realizado un estudio hidrológico para calcular distintos caudales generados en la cuenca asociados a distintos periodos de retorno; varios estudios hidráulicos, fundamentalmente modelizaciones del comportamiento del canal con el software HEC-RAS; y un estudio de erosión hídrica utilizando el método MUSLE con el caudal asociado a un periodo de retorno de 500 años. Con los resultados obtenidos se ha establecido un diagnóstico de la problemática existente y se han planteado y modelizado distintas alternativas. Como medidas estructurales dentro del tramo destacan: el redimensionamiento del cauce eliminando el hormigón, la variación de la curva del canal y la disminución de la pendiente mediante la creación de una serie de saltos. Como soluciones estructurales fuera del tramo de estudio cabe señalar la creación de diques de laminación y una llanura de inundación artificial para disminuir el caudal. Finalmente como medida no estructural, se realizará un cambio de usos y prácticas de conservación del olivar a nivel de cuenca. En conclusión, con la restauración, aparte de la mejora ambiental que se pretende conseguir, se realizará una mejora social. Dicha mejora social se obtendrá evitando las frecuentes inundaciones y eliminando el impacto visual que produce el canal gracias a la mejora de la calidad del entorno. Además, se concienciará a los habitantes de la zona para que entiendan que la solución al mal estado y comportamiento de un curso de agua no proviene únicamente de una gran obra en la zona problemática, sino de la aportación individual para reducir e incluso eliminar la fuente del problema.
Resumo:
En el campo de la fusión nuclear y desarrollándose en paralelo a ITER (International Thermonuclear Experimental Reactor), el proyecto IFMIF (International Fusion Material Irradiation Facility) se enmarca dentro de las actividades complementarias encaminadas a solucionar las barreras tecnológicas que aún plantea la fusión. En concreto IFMIF es una instalación de irradiación cuya misión es caracterizar materiales resistentes a condiciones extremas como las esperadas en los futuros reactores de fusión como DEMO (DEMOnstration power plant). Consiste de dos aceleradores de deuterones que proporcionan un haz de 125 mA y 40 MeV cada uno, que al colisionar con un blanco de litio producen un flujo neutrónico intenso (1017 neutrones/s) con un espectro similar al de los neutrones de fusión [1], [2]. Dicho flujo neutrónico es empleado para irradiar los diferentes materiales candidatos a ser empleados en reactores de fusión, y las muestras son posteriormente examinadas en la llamada instalación de post-irradiación. Como primer paso en tan ambicioso proyecto, una fase de validación y diseño llamada IFMIFEVEDA (Engineering Validation and Engineering Design Activities) se encuentra actualmente en desarrollo. Una de las actividades contempladas en esta fase es la construcción y operación de una acelarador prototipo llamado LIPAc (Linear IFMIF Prototype Accelerator). Se trata de un acelerador de deuterones de alta intensidad idéntico a la parte de baja energía de los aceleradores de IFMIF. Los componentes del LIPAc, que será instalado en Japón, son suministrados por diferentes países europeos. El acelerador proporcionará un haz continuo de deuterones de 9 MeV con una potencia de 1.125 MW que tras ser caracterizado con diversos instrumentos deberá pararse de forma segura. Para ello se requiere un sistema denominado bloque de parada (Beam Dump en inglés) que absorba la energía del haz y la transfiera a un sumidero de calor. España tiene el compromiso de suministrar este componente y CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas) es responsable de dicha tarea. La pieza central del bloque de parada, donde se para el haz de iones, es un cono de cobre con un ángulo de 3.5o, 2.5 m de longitud y 5 mm de espesor. Dicha pieza está refrigerada por agua que fluye en su superficie externa por el canal que se forma entre el cono de cobre y otra pieza concéntrica con éste. Este es el marco en que se desarrolla la presente tesis, cuyo objeto es el diseño del sistema de refrigeración del bloque de parada del LIPAc. El diseño se ha realizado utilizando un modelo simplificado unidimensional. Se han obtenido los parámetros del agua (presión, caudal, pérdida de carga) y la geometría requerida en el canal de refrigeración (anchura, rugosidad) para garantizar la correcta refrigeración del bloque de parada. Se ha comprobado que el diseño permite variaciones del haz respecto a la situación nominal siendo el flujo crítico calorífico al menos 2 veces superior al nominal. Se han realizado asimismo simulaciones fluidodinámicas 3D con ANSYS-CFX en aquellas zonas del canal de refrigeración que lo requieren. El bloque de parada se activará como consecuencia de la interacción del haz de partículas lo que impide cualquier cambio o reparación una vez comenzada la operación del acelerador. Por ello el diseño ha de ser muy robusto y todas las hipótesis utilizadas en la realización de éste deben ser cuidadosamente comprobadas. Gran parte del esfuerzo de la tesis se centra en la estimación del coeficiente de transferencia de calor que es determinante en los resultados obtenidos, y que se emplea además como condición de contorno en los cálculos mecánicos. Para ello por un lado se han buscado correlaciones cuyo rango de aplicabilidad sea adecuado para las condiciones del bloque de parada (canal anular, diferencias de temperatura agua-pared de decenas de grados). En un segundo paso se han comparado los coeficientes de película obtenidos a partir de la correlación seleccionada (Petukhov-Gnielinski) con los que se deducen de simulaciones fluidodinámicas, obteniendo resultados satisfactorios. Por último se ha realizado una validación experimental utilizando un prototipo y un circuito hidráulico que proporciona un flujo de agua con los parámetros requeridos en el bloque de parada. Tras varios intentos y mejoras en el experimento se han obtenido los coeficientes de película para distintos caudales y potencias de calentamiento. Teniendo en cuenta la incertidumbre de las medidas, los valores experimentales concuerdan razonablemente bien (en el rango de 15%) con los deducidos de las correlaciones. Por motivos radiológicos es necesario controlar la calidad del agua de refrigeración y minimizar la corrosión del cobre. Tras un estudio bibliográfico se identificaron los parámetros del agua más adecuados (conductividad, pH y concentración de oxígeno disuelto). Como parte de la tesis se ha realizado asimismo un estudio de la corrosión del circuito de refrigeración del bloque de parada con el doble fin de determinar si puede poner en riesgo la integridad del componente, y de obtener una estimación de la velocidad de corrosión para dimensionar el sistema de purificación del agua. Se ha utilizado el código TRACT (TRansport and ACTivation code) adaptándalo al caso del bloque de parada, para lo cual se trabajó con el responsable (Panos Karditsas) del código en Culham (UKAEA). Los resultados confirman que la corrosión del cobre en las condiciones seleccionadas no supone un problema. La Tesis se encuentra estructurada de la siguiente manera: En el primer capítulo se realiza una introducción de los proyectos IFMIF y LIPAc dentro de los cuales se enmarca esta Tesis. Además se describe el bloque de parada, siendo el diseño del sistema de rerigeración de éste el principal objetivo de la Tesis. En el segundo y tercer capítulo se realiza un resumen de la base teórica así como de las diferentes herramientas empleadas en el diseño del sistema de refrigeración. El capítulo cuarto presenta los resultados del relativos al sistema de refrigeración. Tanto los obtenidos del estudio unidimensional, como los obtenidos de las simulaciones fluidodinámicas 3D mediante el empleo del código ANSYS-CFX. En el quinto capítulo se presentan los resultados referentes al análisis de corrosión del circuito de refrigeración del bloque de parada. El capítulo seis se centra en la descripción del montaje experimental para la obtención de los valores de pérdida de carga y coeficiente de transferencia del calor. Asimismo se presentan los resultados obtenidos en dichos experimentos. Finalmente encontramos un capítulo de apéndices en el que se describen una serie de experimentos llevados a cabo como pasos intermedios en la obtención del resultado experimental del coeficiente de película. También se presenta el código informático empleado para el análisis unidimensional del sistema de refrigeración del bloque de parada llamado CHICA (Cooling and Heating Interaction and Corrosion Analysis). ABSTRACT In the nuclear fusion field running in parallel to ITER (International Thermonuclear Experimental Reactor) as one of the complementary activities headed towards solving the technological barriers, IFMIF (International Fusion Material Irradiation Facility) project aims to provide an irradiation facility to qualify advanced materials resistant to extreme conditions like the ones expected in future fusion reactors like DEMO (DEMOnstration Power Plant). IFMIF consists of two constant wave deuteron accelerators delivering a 125 mA and 40 MeV beam each that will collide on a lithium target producing an intense neutron fluence (1017 neutrons/s) with a similar spectra to that of fusion neutrons [1], [2]. This neutron flux is employed to irradiate the different material candidates to be employed in the future fusion reactors, and the samples examined after irradiation at the so called post-irradiative facilities. As a first step in such an ambitious project, an engineering validation and engineering design activity phase called IFMIF-EVEDA (Engineering Validation and Engineering Design Activities) is presently going on. One of the activities consists on the construction and operation of an accelerator prototype named LIPAc (Linear IFMIF Prototype Accelerator). It is a high intensity deuteron accelerator identical to the low energy part of the IFMIF accelerators. The LIPAc components, which will be installed in Japan, are delivered by different european countries. The accelerator supplies a 9 MeV constant wave beam of deuterons with a power of 1.125 MW, which after being characterized by different instruments has to be stopped safely. For such task a beam dump to absorb the beam energy and take it to a heat sink is needed. Spain has the compromise of delivering such device and CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas) is responsible for such task. The central piece of the beam dump, where the ion beam is stopped, is a copper cone with an angle of 3.5o, 2.5 m long and 5 mm width. This part is cooled by water flowing on its external surface through the channel formed between the copper cone and a concentric piece with the latter. The thesis is developed in this realm, and its objective is designing the LIPAc beam dump cooling system. The design has been performed employing a simplified one dimensional model. The water parameters (pressure, flow, pressure loss) and the required annular channel geometry (width, rugoisty) have been obtained guaranteeing the correct cooling of the beam dump. It has been checked that the cooling design allows variations of the the beam with respect to the nominal position, being the CHF (Critical Heat Flux) at least twice times higher than the nominal deposited heat flux. 3D fluid dynamic simulations employing ANSYS-CFX code in the beam dump cooling channel sections which require a more thorough study have also been performed. The beam dump will activateasaconsequenceofthe deuteron beam interaction, making impossible any change or maintenance task once the accelerator operation has started. Hence the design has to be very robust and all the hypotheses employed in the design mustbecarefully checked. Most of the work in the thesis is concentrated in estimating the heat transfer coefficient which is decisive in the obtained results, and is also employed as boundary condition in the mechanical analysis. For such task, correlations which applicability range is the adequate for the beam dump conditions (annular channel, water-surface temperature differences of tens of degrees) have been compiled. In a second step the heat transfer coefficients obtained from the selected correlation (Petukhov- Gnielinski) have been compared with the ones deduced from the 3D fluid dynamic simulations, obtaining satisfactory results. Finally an experimental validation has been performed employing a prototype and a hydraulic circuit that supplies a flow with the requested parameters in the beam dump. After several tries and improvements in the experiment, the heat transfer coefficients for different flows and heating powers have been obtained. Considering the uncertainty in the measurements the experimental values agree reasonably well (in the order of 15%) with the ones obtained from the correlations. Due to radiological reasons the quality of the cooling water must be controlled, hence minimizing the copper corrosion. After performing a bibligraphic study the most adequate water parameters were identified (conductivity, pH and dissolved oxygen concentration). As part of this thesis a corrosion study of the beam dump cooling circuit has been performed with the double aim of determining if corrosion can pose a risk for the copper beam dump , and obtaining an estimation of the corrosion velocitytodimension the water purification system. TRACT code(TRansport and ACTivation) has been employed for such study adapting the code for the beam dump case. For such study a collaboration with the code responsible (Panos Karditsas) at Culham (UKAEA) was established. The work developed in this thesis has supposed the publication of three articles in JCR journals (”Journal of Nuclear Materials” y ”Fusion Engineering and Design”), as well as presentations in more than four conferences and relevant meetings.
Resumo:
El software ha obtenido en la actualidad una gran importancia en todos los ámbitos de la vida cotidiana. Es indudable que la calidad del software juega un papel fundamental en todo desarrollo informático, aunque en ocasiones no se le presta la suficiente atención, quizás debido a los relativamente escasos trabajos relacionados con este tema desarrollados hasta la fecha. En el presente trabajo, se plantea la necesidad de un modelo de calidad completo. Para cubrir esta necesidad se presenta un nuevo modelo de calidad, obtenido tras un estudio pormenorizado de los modelos de calidad existentes, centrado en el paradigma orientado a objetos. Este modelo de calidad muestra cómo la calidad del software se descompone en una serie de factores y éstos, a su vez, se descomponen en un conjunto de criterios medibles utilizando medidas. El modelo incluye un amplio conjunto de medidas, diseñadas especialmente para su aplicación dentro del paradigma orientado a objetos. Para completar el modelo, se ha diseñado un sencillo método de aplicación de este modelo de calidad para que pueda ser utilizado de una forma simple por los desarrolladores de sistemas informáticos orientados a objetos. El modelo de calidad definido se ha validado realizando un juego de experimentos. Estos experimentos han consistido en la aplicación del modelo sobre una serie de desarrollos orientados a objetos. Los resultados obtenidos han demostrado su utilidad práctica para determinar tanto la calidad global de los sistemas, como para identificar aquellas partes del sistema susceptibles de ser mejoradas. Con este trabajo, se llena un importante hueco existente en esta área, pues, en primer lugar, no existen modelos de calidad completos para la orientación a objetos. En segundo lugar, aunque hay medidas para la orientación a objetos, no se han asociado a los atributos que determinan la calidad del software, por lo que su utilidad, tal cual fueron definidas, resulta bastante cuestionable. Para finalizar, nunca se ha asociado un modelo de calidad con una método de aplicación, por lo que su utilidad quedaba considerablemente mermada, quedando a expensas de la habilidad y experiencia del Ingeniero del Software que lo utilizara.
Resumo:
Las centrales nucleares necesitan de personal altamente especializado y formado. Es por ello por lo que el sector de la formación especializada en centrales nucleares necesita incorporar los últimos avances en métodos formativos. Existe una gran cantidad de cursos de formación presenciales y es necesario transformar dichos cursos para utilizarlos con las nuevas tecnologías de la información. Para ello se necesitan equipos multidisciplinares, en los que se incluyen ingenieros, que deben identificar los objetivos formativos, competencias, contenidos y el control de calidad del propio curso. En este proyecto se utilizan técnicas de ingeniería del conocimiento como eje metodológico para transformar un curso de formación presencial en formación on-line a través de tecnologías de la información. En la actualidad, las nuevas tecnologías de la información y comunicación están en constante evolución. De esta forma se han sumergido en el mundo transformando la visión que teníamos de éste para dar lugar a nuevas oportunidades. Es por ello que este proyecto busca la unión entre el e-learning y el mundo empresarial. El objetivo es el diseño, en plataforma e-learning, de un curso técnico que instruya a operadores de sala de control de una central nuclear. El trabajo realizado en este proyecto ha sido, además de transformar un curso presencial en on-line, en obtener una metodología para que otros cursos se puedan transformar. Para conseguir este cometido, debemos preocuparnos tanto por el contenido de los cursos como por su gestión. Por este motivo, el proyecto comienza con definiciones básicas de terminología propia de e-learning. Continúa con la generación de una metodología que aplique la gestión de conocimiento para transformar cualquier curso presencial a esta plataforma. Definida la metodología, se aplicará para el diseño del curso específico de Coeficientes Inherentes de Reactividad. Finaliza con un estudio económico que dé viabilidad al proyecto y con la creación de un modelo económico que estime el precio para cualquier curso futuro. Abstract Nuclear power plants need highly specialized and trained personnel. Thus, nuclear power plant Specialized Training Sector requires the incorporation of the latest advances in training methods. A large array of face-to-face training courses exist and it has become necessary to transform said courses in order to apply them with the new information systems available. For this, multidisciplinary equipment is needed where the engineering workforce must identify educational objectives, competences and abilities, contents and quality control of the different courses. In this project, knowledge engineering techniques are employed as the methodological axis in order to transform a face-to-face training course into on-line training through the use of new information technologies. Nowadays, new information and communication technologies are in constant evolution. They have introduced themselves into our world, transforming our previous vision of them, leading to new opportunities. For this reason, the present Project seeks to unite the use of e-learning and the Business and Corporate world. The main objective is the design, in an e-learning platform, of a technical course that will train nuclear power plant control-room operators. The work carried out in this Project has been, in addition to the transformation of a face-to-face course into an online one, the obtainment of a methodology to employ in the future transformation of other courses. In order to achieve this mission, our interest must focus on the content as well as on the management of the various courses. Hence, the Project starts with basic definitions of e-learning terminology. Next, a methodology that applies knowledge management for the transformation of any face-to-face course into e-learning has been generated. Once this methodology is defined, it has been applied for the design process of the Inherent Coefficients of Reactivity course. Finally, an economic study has been developed in order to determine the viability of the Project and an economic model has been created to estimate the price of any given course
Resumo:
El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.
Resumo:
Se presenta en este documento un índice (RFV- Riparían Forest EValuation) para la valoración del estado del bosque de ribera en ríos permanentes. La Directiva 2000/60/CE establece la necesidad de introducir elementos de valoración de la calidad hidromorfológica de los cauces naturales. Entre otros aspectos, incorpora la calidad del bosque rípario como uno de los aspectos fundamentales en la determinación de la estructura de la zona ribereña. Con tal fin, y con objeto de completar las metodologías de valoración del bosque ripario existentes en la actualidad, se presenta este índice RFV. Su determinación se basa en la valoración de la continuidad espacial del bosque de ribera (en sus tres dimensiones -longitudinal, transversal y vertical) y de la continuidad temporal del bosque, representada por la regeneración natural de la vegetación, garante de su continuidad futura. El índice presentado permite evaluar la calidad y grado de alteración del bosque ripario. Asimismo, permite establecer los objetivos de gestión necesarios para mejorar el estado del bosque de ribera, y para llevar a cabo procesos de restauración de su estructura y composición.
Resumo:
Análisis de los modelos de asociación público-privado utilizados en la construcción de autopistas en México en los últimos 25 años. Existen estudios que respaldan la opinión de que los niveles de competitividad están estrechamente relacionados con el desarrollo de la infraestructura de los países. La baja competitividad de México debido a la mala calidad de su infraestructura, pone en evidencia la necesidad del mejoramiento y provisión de la misma en un marco de escasez de recursos fiscales. Esta argumentación, sustenta la intervención del sector privado para apoyar el financiamiento de infraestructura mediante nuevos mecanismos de asociación público privada (APP). En el artículo se describen: el desarrollo de la infraestructura carretera de México, la forma en que ésta fue financiada en el pasado con modelos de concesión para la construcción de carreteras de alta calidad y los modelos de APP que el país está utilizando para atraer la inversión privada en el actual programa mexicano de autopistas. Se muestran los beneficios del empleo de estos esquemas de financiamiento y se ofrece una serie de recomendaciones para transparentar el uso de estos modelos. There are studies that support the view that the competitiveness levels are closely related to the development of the country’s infrastructure. The low competitiveness of Mexico due to the poor quality of its infrastructure, underscores the need for improvement and provision of the same in a context of scarce fiscal resources. This argument supports the intervention of the private sector to finance infrastructure through new mechanisms for public private partnership (PPP). The article describes the development of the Mexico road infrastructure, the way in which it was funded in the past by models of concession for the construction of high-quality roads and models of app that the country is using to attract private investment in the current Mexican highways program. The benefits of these funding schemes are displayed and recommendations are offered for transparent use of these models