146 resultados para ESFUERZOS Y DEFORMACIONES
Resumo:
En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.
Resumo:
En los últimos años la evolución de la información compartida por internet ha cambiado enormemente, llegando a convertirse en lo que llamamos hoy la Web Semántica. Este término, acuñado en 2004, muestra una manera más “inteligente” de compartir los datos, de tal manera que éstos puedan ser entendibles por una máquina o por cualquier persona en el mundo. Ahora mismo se encuentra en fase de expansión, prueba de ello es la cantidad de grupos de investigación que están actualmente dedicando sus esfuerzos al desarrollo e implementación de la misma y la amplitud de temáticas que tienen sus trabajos. Con la aparición de la Web Semántica, la tendencia de las bases de datos de nueva creación se está empezando a inclinar hacia la creación de ontologías más o menos sencillas que describan las bases de datos y así beneficiarse de las posibilidades de interoperabilidad que aporta. Con el presente trabajo se pretende el estudio de los beneficios que aporta la implementación de una ontología en una base de datos relacional ya creada, los trabajos necesarios para ello y las herramientas necesarias para hacerlo. Para ello se han tomado unos datos de gran interés y, como continuación a su trabajo, se ha implementado la ontología. Estos datos provienen del estudio de un método para la obtención automatizada del linaje de las parcelas registradas en el catastro español. Abstract: In the last years the evolution of the information shared on the Internet has dramatically changed, emerging what is called Semantic Web. This term appeared in 2004, defining a “smarter” way of sharing data. Data that could be understood by machines or by any human around the world. Nowadays, the Semantic Web is in expansion phase, as it can be probed by the amount of research groups working on this approach and the wide thematic range of their work. With the appearance of the Semantic Web, current database technologies are supported by the creation of ontologies which describe them and therefore get a new set of interoperability possibilities from them. This work focuses in the study of the benefits given by the implementation of an ontology in a created relational database, the steps to follow and the tools necessary to get it done. The study has been done by using data of considerable interest, coming from a study of the lineage of parcels registered in the Spanish cadaster. As a continuation of this work an ontology has been implemented.
Resumo:
Se presenta en este trabajo una metodología adecuada para la resolución de algunos problemas de conformado de metales. La necesidad de trabajar con leyes constitutivas no lineales, en grandes deformaciones teniendo en cuenta la existencia de contacto y rozamiento entre las diversas piezas modelizadas hacen necesario disponer de una formulación apropiada para la correcta modelización de estos procesos. Por último se presenta la aplicación a un problema industrial de esta metodología.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
La pérdida de bosques en la Tierra, principalmente en ecosistemas amazónicos, es un factor clave en el proceso del cambio climático. Para revertir esta situación, los mecanismos REDD (Reducing Emission from Deforestation and forest Degradation) están permitiendo la implementación de actividades de protección del clima a través de la reducción de emisiones por deforestación evitada, según los esquemas previstos en el Protocolo de Kioto. El factor técnico más crítico en un proyecto REDD es la determinación de la línea de referencia de emisiones, que define la expectativa futura sobre las emisiones de CO2 de origen forestal en ausencia de esfuerzos adicionales obtenidos como consecuencia de la implementación del programa REDD para frenar este tipo de emisiones. La zona del estudio se ubica en la región de San Martín (Perú), provincia cubierta fundamentalmente por bosques tropicales cuyas tasas de deforestación son de las más altas de la cuenca amazónica. En las últimas décadas del siglo XX, la región empezó un acelerado proceso de deforestación consecuencia de la integración vial con el resto del país y la rápida inmigración desde zonas rurales en busca de nuevas tierras agrícolas. Desde el punto de vista de la investigación llevada a cabo en la tesis doctoral, se pueden destacar dos líneas: 1. El estudio multitemporal mediante imágenes de satélite Landsat 5/TM con el propósito de calcular las pérdidas de bosque entre períodos. El estudio multitemporal se llevó a cabo en el período 1998-2011 utilizando imágenes Landsat 5/TM, aplicando la metodología de Análisis de Mezclas Espectrales (Spectral Mixtures Analysis), que permite descomponer la reflectancia de cada píxel de la imagen en diferentes fracciones de mezcla espectral. En este proceso, las etapas más críticas son el establecimiento de los espectros puros o endemembers y la recopilación de librerías espectrales adecuadas, en este caso de bosques tropicales, que permitan reducir la incertidumbre de los procesos. Como resultado de la investigación se ha conseguido elaborar la línea de referencia de emisiones histórica, para el período de estudio, teniendo en cuenta tanto los procesos de deforestación como de degradación forestal. 2. Relacionar los resultados de pérdida de bosque con factores de causalidad directos e indirectos. La determinación de los procesos de cambio de cobertura forestal utilizando técnicas geoespaciales permite relacionar, de manera significativa, información de los indicadores causales de dichos procesos. De igual manera, se pueden estimar escenarios futuros de deforestación y degradación de acuerdo al análisis de la evolución de dichos vectores, teniendo en cuenta otros factores indirectos o subyacentes, como pueden ser los económicos, sociales, demográficos y medioambientales. La identificación de los agentes subyacentes o indirectos es una tarea más compleja que la de los factores endógenos o directos. Por un lado, las relaciones causa – efecto son mucho más difusas; y, por otro, los efectos pueden estar determinados por fenómenos más amplios, consecuencia de superposición o acumulación de diferentes causas. A partir de los resultados de pérdida de bosque obtenidos mediante la utilización de imágenes Landsat 5/TM, se investigaron los criterios de condicionamiento directos e indirectos que podrían haber influido en la deforestación y degradación forestal en ese período. Para ello, se estudiaron las series temporales, para las mismas fechas, de 9 factores directos (infraestructuras, hidrografía, temperatura, etc.) y 196 factores indirectos (económicos, sociales, demográficos y ambientales, etc.) con, en principio, un alto potencial de causalidad. Finalmente se ha analizado la predisposición de cada factor con la ocurrencia de deforestación y degradación forestal por correlación estadística de las series temporales obtenidas. ABSTRACT Forests loss on Earth, mainly in Amazonian ecosystems, is a key factor in the process of climate change. To reverse this situation, the REDD (Reducing Emission from Deforestation and forest Degradation) are allowing the implementation of climate protection activities through reducing emissions from avoided deforestation, according to the schemes under the Kyoto Protocol. Also, the baseline emissions in a REDD project defines a future expectation on CO2 emissions from deforestation and forest degradation in the absence of additional efforts as a result of REDD in order to stop these emissions. The study area is located in the region of San Martín (Peru), province mainly covered by tropical forests whose deforestation rates are the highest in the Amazon basin. In the last decades of the twentieth century, the region began an accelerated process of deforestation due to road integration with the rest of the country and the rapid migration from rural areas for searching of new farmland. From the point of view of research in the thesis, we can highlight two lines: 1. The multitemporal study using Landsat 5/TM satellite images in order to calculate the forest loss between periods. The multitemporal study was developed in the period 1998-2011 using Landsat 5/TM, applying the methodology of Spectral Mixture Analysis, which allows decomposing the reflectance of each pixel of the image in different fractions of mixture spectral. In this process, the most critical step is the establishment of pure spectra or endemembers spectra, and the collecting of appropriate spectral libraries, in this case of tropical forests, to reduce the uncertainty of the process. As a result of research has succeeded in developing the baseline emissions for the period of study, taking into account both deforestation and forest degradation. 2. Relate the results of forest loss with direct and indirect causation factors. Determining the processes of change in forest cover using geospatial technologies allows relating, significantly, information of the causal indicators in these processes. Similarly, future deforestation and forest degradation scenarios can be estimated according to the analysis of the evolution of these drivers, taking into account other indirect or underlying factors, such as economic, social, demographic and environmental. Identifying the underlying or indirect agents is more complex than endogenous or direct factors. On the one hand, cause - effect relationships are much more diffuse; and, second, the effects may be determined by broader phenomena, due to superposition or accumulation of different causes. From the results of forest loss obtained using Landsat 5/TM, the criteria of direct and indirect conditioning that might have contributed to deforestation and forest degradation in that period were investigated. For this purpose, temporal series, for the same dates, 9 direct factors (infrastructure, hydrography, temperature, etc.) and 196 underlying factors (economic, social, demographic and environmental) with, in principle, a high potential of causality. Finally it was analyzed the predisposition of each factor to the occurrence of deforestation and forest degradation by statistical correlation of the obtained temporal series.
Resumo:
El presente trabajo realiza un análisis de la vulnerabilidad de la viticultura en España ante el Cambio Climático que contribuya a la mejora de la capacidad de respuesta del sector vitivinícola a la hora de afrontar los retos de la globalización. Para ello se analiza el impacto que puede tener el Cambio Climático en primer lugar sobre determinados riesgos ocasionados por eventos climáticos adversos relacionados con extremos climáticos y en segundo lugar, sobre los principales índices agro-climáticos definidos en el Sistema de Clasificación Climática Multicriterio Geoviticultura (MCGG), que permiten clasificar las zonas desde un punto de vista de su potencial climático. Para el estudio de las condiciones climáticas se han utilizado los escenarios de Cambio Climático regionalizados del proyecto ESCENA, desarrollados dentro del Plan Nacional de Adaptación al Cambio Climático (PNACC) con el fin de promover iniciativas de anticipación y respuesta al Cambio Climático hasta el año 2050. Como parte clave del estudio de la vulnerabilidad, en segundo lugar se miden las necesidades de adaptación para 56 Denominaciones de Origen Protegidas, definidas por los impactos y de acuerdo con un análisis de sensibilidad desarrollado en este trabajo. De este análisis se desprende que los esfuerzos de adaptación se deberían centrar en el mantenimiento de la calidad sobre todo para mejorar las condiciones en la época de maduración en los viñedos de la mitad norte, mientras que en las zonas de la mitad sur y del arco mediterráneo, además deberían buscar mantener la productividad en la viticultura. Los esfuerzos deberían ser más intensos en esta zona sur y también estarían sujetos a más limitaciones, ya que por ejemplo el riego, que podría llegar a ser casi obligatorio para mantener el cultivo, se enfrentaría a un contexto de mayor competencia y escasez de recursos hídricos. La capacidad de afrontar estas necesidades de adaptación determinará la vulnerabilidad del viñedo en cada zona en el futuro. Esta capacidad está definida por las propias necesidades y una serie de condicionantes sociales y de limitaciones legales, como las impuestas por las propias Denominaciones de Origen, o medioambientales, como la limitación del uso de agua. El desarrollo de estrategias que aseguren una utilización sostenible de los recursos hídricos, así como el apoyo de las Administraciones dentro de la nueva Política Agraria Común (PAC) pueden mejorar esta capacidad de adaptación y con ello disminuir la vulnerabilidad. ABSTRACT This paper analyzes the vulnerability of viticulture in Spain on Climate Change in order to improve the adaptive capacity of the wine sector to meet the diverse challenges of globalization. The risks to quality and quantity are explored by considering bioclimatic indices with specific emphasis on the Protected Designation of Origin areas that produce the premium winegrapes. The Indices selected represents risks caused by adverse climatic events related to climate extremes, and requirements of varieties and vintage quality in the case of those used in the Multicriteria Climatic Classification System. (MCCS). To study the climatic conditions, an ensemble of Regional Climate Models (RCMs) of ESCENA project, developed in the framework of the Spanish Plan for Regional Climate Change Scenarios (PNACC-2012) have been used As a key part of the study of vulnerability risks and opportunities are linked to adaptation needs across the Spanish territory. Adaptation efforts are calculated as proportional to the magnitude of change and according to a sensitivity analysis for 56 protected designations of origin. This analysis shows that adaptation efforts should focus on improving conditions in the ripening period to maintain quality in the vineyards of the northern half of Iberian Peninsula, while in areas of the southern half and in the Mediterranean basin, also should seek to maintain productivity of viticulture. Therefore, efforts should be more intense in the Southern and Eastern part, and may also be subject to other limitations, such as irrigation, which could become almost mandatory to keep growing, would face a context of increased competition and lack of resources water. The ability to meet these needs will determine the vulnerability of the vineyard in each region in the future. This capability is defined also by a number of social factors and legal limitations such as environmental regulations, limited water resources or those imposed by their own Designation of Origin. The development of strategies to ensure sustainable use of water resources and the support schemes in the new Common Agricultural Policy (CAP) can improve the resilience and thus reduce vulnerability.
Resumo:
Siguiendo la orientación seguida por la industria aeronáutica de los Estados Unidos en las últimas décadas muchas industrias paralelas han venido a considerar la Operación y Mantenimiento (O&M) como uno de los aspectos más relevantes a la hora de conseguir alcanzar sus objetivos organizativos. La política a seguir en la fase mantenimiento se reconoce como algo fundamental para conseguir los niveles de eficacia operativa precisos, en particular la disponibilidad. La importancia que toman los costes acumulativos incurridos en el periodo de O&M en el total de los acumulados en el ciclo de vida es un hecho cada vez más reconocido. Este concepto ha sido muy analizado y comentado, y comienzan a surgir y a estar en vigor numerosas regulaciones sobre el tema. El coste del ciclo de vida (LCC) se usa cada vez más como uno de los criterios principales a la hora de diseñar o comprar, y así se requiere a los suministradores que aporten soluciones garantizando un bajo coste a lo largo del ciclo vital y que, a la par, mantengan los niveles de servicio requeridos, por unos atributos medibles como son la disponibilidad o la puntualidad. Esta dualidad supone un verdadero reto para los diseñadores cuando afrontan nuevos desarrollos: diseñar para lograr un elevado nivel de servicio a la par que manteniendo un coste bajo en la totalidad del ciclo de vida del nuevo diseño. Hoy en día es indispensable proceder al diseño de los productos y soluciones de forma que sean confiables, fáciles de parametrizar, de configurar y operar, y que además posean las mejores prestaciones para minimizar los esfuerzos para su mantenimiento, renovaciones y eliminación al fin de su vida útil. La política de mantenimiento, tal como se indica anteriormente, ya no es por tanto la preocupación del último momento, sino algo que se debe definir conjuntamente con el diseño, con la perspectiva integrada del soporte logístico preciso. En numerosas industrias las decisiones que se toman sobre el diseño influencian sobremanera los costes futuros del mantenimiento y, particularmente en estos casos, el análisis integral del coste del ciclo de vida se revela como una poderosa herramienta que habilita la toma de las decisiones críticas. Por desgracia el estado del arte de los análisis LCC en el campo ferroviario es casi nulo en comparación con la industria aeronáutica de defensa, o incluso con la tecnología aplicada a la construcción de carreteras. Un enfoque profesional sobre la optimización de los costes y la disponibilidad del sistema ferroviario global es algo inexistente hoy día. Un análisis sistemático de los costes e impactos sobre la disponibilidad a largo plazo es excepcional en las fases de diseño, incluso para los más sencillos componentes de señalización. Más aún, en el mercado de señalización ferroviaria el mantenimiento es el gran paradigma. Las líneas deben mantenerse en servicio comercial bajo cualquier circunstancia, llevando al mínimo cualquier perturbación y por supuesto preservando la seguridad que la sociedad demanda a los sistemas de transporte públicos de masas. Es por ello que la tendencia cada vez mayor es la de comparar, en el momento de la toma de decisión sobre la inversión, las distintas alternativas posibles para elegir la que garantice el menor coste esperable a lo largo del ciclo de vida exigible. El sector ferroviario, como industria que requiere elevadas inversiones de capital en soluciones de larga permanencia, requiere un enfoque que considere el coste del ciclo de vida. Para la infraestructura ferroviaria y la propia vía el ciclo de vida considerado tradicionalmente para la inversión inicial incluyendo el mantenimiento y algunas renovaciones parciales es de 75 a 100 años, para el material rodante son 30 a 35 años con una renovación significativa hacia la mitad del periodo y para los sistemas de señalización se suelen adoptar entre 25 y 30 años. Dados estos elevados plazos el coste debe ser evaluado para cada uno de los elementos constitutivos, considerando no solo los costes de adquisición, sino también a los que conducen las distintas alternativas de diseño y estrategias de mantenimiento, de forma que se minimicen los costes totales acumulados a lo largo del plazo vital sin perder de vista preservar la función deseada, la explotación comercial segura. Concebir las líneas y su mantenimiento bajo el prisma del concepto del coste del ciclo de vida LCC está revelándose como algo imperativo ya que garantiza que las decisiones sobre inversiones/explotación/mantenimiento sean las más efectivas en términos de coste para la sociedad. Pero por desgracia es muy raro encontrar en el sector ferroviario análisis LCC debidamente documentados. Todos los tecnólogos prefieren aportar argumentos de ventas, bonitas transparencias y folletos, entre ellos algunos detalles de LCC o reflexiones dialécticas al respecto, más que permitir obtener clara y francamente sus costes de adquisición de productos incluyendo los de ingeniería e instalación. Igual o similar opacidad hay al respecto de los costes de su mantenimiento (considerando los repuestos y las expectativas de evolución o roadmap del producto). A pesar de reconocerse el hecho de que las decisiones relativas al diseño y a las estrategias de mantenimiento deben apoyarse en análisis sobre los costes y la efectividad asociada debidamente evaluada, en la mayor parte de las veces la carencia de datos imposibilita la realización de estos estudios y se toman las decisiones por proximidad a otros casos similares o guiados por el consejo de una parte sesgada del mercado. Esta tesis demuestra, partiendo de la aplicación de la parte 3.3 de la norma internacional UNE-EN 60300:2004 “Cálculo del Coste del Ciclo de Vida”, que el sistema de señalización que se debe considerar a la hora de definir una nueva línea de Metro típica ha de ser la tecnología de control de tren basada en las telecomunicaciones (CBTC) aplicada en su modo de operación sin conductor (UTO), puesto que su coste de ciclo de vida (LCC) resulta ser sensiblemente inferior al del sistema tradicional de protección y operación automática de tren (ATP/ATO) más avanzado que puede ser usado como alternativa tecnológica, el distancia objetivo. El trabajo es netamente innovador, pues en el estado del arte documental sobre la materia, que se ha analizado en gran profundidad, tal y como demuestra la bibliografía reseñada, no consta ningún análisis de selección de alternativas de características similares hasta la fecha. Aunque se habla de manera extensiva en los foros y revistas ferroviarias sobre el tema de la rentabilidad que se obtiene por la selección del sistema CBTC como sistema de protección de tren sin embargo éste es un aspecto que nadie ha demostrado de manera analítica hasta el trabajo presente. La Tesis en sí misma es un trabajo original, pues contiene a lo largo de toda ella y en sus anejos, una descripción completa, y adecuadamente comprensible por todo tipo de lector, sobre el estado del arte de los sistemas de automatización ferroviaria. No existe actualmente en lengua castellana, inglesa, francesa o alemana un trabajo de alcance similar. La Tesis se estructura debidamente, proporcionando un hilo documental que permite incluso a los lectores profanos adquirir los conocimientos precisos para poder valorar de manera adecuada el análisis de alternativas que se plantea y su resultado, que resulta coincidente con la hipótesis formulada al inicio de la redacción de la Tesis. Se indican como colofón otras posibles futuras líneas de investigación que se han identificado. Los anejos a la Tesis la complementan con información adicional procesada durante su redacción: • Las tablas de los cálculos del modelo de costes de cada alternativa tecnológica analizada • La visión general del universo de los sistemas de conducción automática de metros globalmente conocidos bajo el acrónimo de CBTC (Communications-Based Train Control), con el detalle actual del mercado de este tipo de soluciones: qué Compañías fabrican, en base a qué solución tecnológica de transmisión, dónde los comercializan y qué entes ferroviarios los utilizan. • Las condiciones a tener en cuenta de cara a decidir la implantación de un sistema CBTC UTO. • El estudio en detalle del caso de reseñalización del Metro de Nueva York describiendo los métodos que se siguieron para elegir las compañías que intervinieron en su realización y lograr la interoperabilidad entre las mismas. • El estado del arte de la definición de estándares y actividades para la interoperabilidad en Europa y Estados Unidos (Proyecto Modurban y Normas del IEEC).
Resumo:
Los procesos de creación, fortalecimiento, y mantenimiento del capital social a través de Programas de Mejoramiento Integral de Barrios en Latinoamérica, han presentado algunos avances durante las dos últimas dos décadas. Sin embargo aún se siguen presentando serias dificultades en la implementación de dichos procesos, los cuales a pesar de los esfuerzos realizados no logran mitigar indicadores relacionados con el capital social, como la desconfianza de la ciudadanía hacia sus instituciones, el bajo empoderamiento político o la percepción de inseguridad así como tampoco han logrado la sostenibilidad en el tiempo de los logros alcanzados. La presente investigación propone analizar cuáles son las principales capacidades, y cuales las dificultades más notorias, que presenta un Programa de Mejoramiento Integral de Barrios para estimular la presencia de capital social en una comunidad. La investigación se ha desarrollado bajo el método de estudio de casos, mediante cuatro fases: la primera, la recogida de información literaria sobre los conceptos en cuestión; la segunda, el diseño de un instrumento de análisis de realidades complejas: flujo de programa; la tercera, la aplicación del instrumento a los casos de estudio, haciendo uso de la información recogida en la literatura, y en entrevistas presenciales a líderes de la comunidad, técnicos y académicos relacionados con el caso; y por último la elaboración de conclusiones. El caso analizado es el Proyecto SUR con Bogotá, el cual se desarrolla en una zona periférica de la ciudad, con alto grado de precariedad y conflictividad. Se han estudiado dos de sus fases por separado por presentar estas diferencias estructurales importantes en su enfoque y ejecución, lo que resulta de interés para el objetivo de este estudio: SUR con Bogotá que va desde el año 1998 al 2004 y cuyo enfoque se centra más en la ejecución integral de obras y la formación de la ciudadanía; y SUR con convivencia desde el año 2005, y analizada hasta el 2013, cuyo enfoque se concentra en temas de convivencia y seguridad. El estudio de la primera fase SUR con Bogotá, demuestra que pese a las dificultades presentadas, es posible aumentar los indicadores de capital social al contar con instrumentos y procesos adecuados, voluntad política en los actores institucionales, voluntad por participar en las soluciones de su entorno por parte de los actores de la población civil; y que es posible incidir efectivamente en factores contextuales adversos como la inseguridad y la cultura del mal manejo de los recursos públicos; así como es posible también el aprovechamiento de factores contextuales positivos, como la buena disposición para la asociatividad y el control público. En el estudio de la segunda fase, SUR con convivencia, se verifica que las fallas institucionales como, la descoordinación institucional, errores instrumentales en los procesos de contratación, o la falta de continuidad en procesos; son de alguna manera soportables, y el programa tiene la capacidad de autocorregirlos; pero las fallas reiteradas como: la falta de voluntad política, el desinterés por el control y seguimiento de las inversiones públicas y la corrupción, pueden generar por si mismas de un desequilibrio profundo en los procesos y la perdida de los logros alcanzados, como la confianza y los indicadores de capital fortalecidos.
Resumo:
La motivación principal de este trabajo fin de máster es el estudio del comportamiento en rotura de un material metálico muy dúctil como es una aleación de aluminio. El conocimiento del comportamiento de los materiales en su régimen plástico es muy valioso, puesto que el concepto de ductilidad de un material está relacionado directamente con la seguridad de una estructura. Un material dúctil es aquel que resiste estados tensionales elevados y alcanza altos niveles de deformación, siendo capaz de absorber gran cantidad de energía antes de su rotura y permitiendo una redistribución de esfuerzos entre elementos estructurales. Por tanto, la utilización de materiales dúctiles en el mundo de la construcción supone en general un incremento de la seguridad estructural por su “capacidad de aviso”, es decir, la deformación que estos materiales experimentan antes de su rotura. Al contrario que los materiales frágiles, que carecen de esta capacidad de aviso antes de su rotura, produciéndose ésta de forma repentina y sin apenas deformación previa. En relación a esto, el ensayo de tracción simple se considera una de las técnicas más sencillas y utilizadas en la caracterización de materiales metálicos, puesto que a partir de la curva fuerza-desplazamiento que este ensayo proporciona, permite obtener de forma precisa la curva tensión-deformación desde el instante de carga máxima. No obstante, existen dificultades para la definición del comportamiento del material desde el instante de carga máxima hasta rotura, lo que provoca que habitualmente no se considere este último tramo de la curva tensión-deformación cuando, tal y como sabemos, contiene una información muy importante y valiosa. Y es que, este último tramo de la curva tensión-deformación es primordial a la hora de determinar la energía máxima que un elemento es capaz de absorber antes de su rotura, aspecto elemental, por ejemplo para conocer si una rotura ha sido accidental o intencionada. Por tanto, el tramo final de la curva tensión-deformación proporciona información muy interesante sobre el comportamiento del material frente a situaciones límite de carga. El objetivo por tanto va a ser continuar con el trabajo realizado por el doctor Ingeniero de Caminos, Canales y Puertos, Fernando Suárez Guerra, el cual estudió en su Tesis Doctoral el comportamiento en rotura de dos materiales metálicos como son, un Material 1: acero perlítico empleado en la fabricación de alambres de pretensado, y un Material 2: acero tipo B 500 SD empleado como armadura pasiva en hormigón armado. Estos materiales presentan un comportamiento a rotura claramente diferenciado, siendo más dúctil el Material 2 que el Material 1. Tomando como partida esta Tesis Doctoral, este Trabajo Fin de Máster pretende continuar con el estudio del comportamiento en rotura de un material metálico mucho más dúctil que los experimentados anteriormente, como es el aluminio. Analizando el último tramo de la curva tensión-deformación, que corresponde al tramo entre el instante de carga máxima y el de rotura del material. Atendiendo a los mecanismos de rotura de un material metálico, es necesario distinguir dos comportamientos distintos. Uno que corresponde a una rotura en forma de copa y cono, y otro que corresponde a una superficie de rotura plana perpendicular a la dirección de aplicación de la carga.
Resumo:
La valorización energética de las biomasas para generar electricidad continúa sin desarrollarse como debiera en España a pesar de los esfuerzos que se están haciendo porque el sector se haga fuerte de una vez por todas. Todos queremos que esta eterna promesa renovable se convierta en una realidad tangible a corto plazo.
Resumo:
Las personas que usan la silla de ruedas como su forma de movilidad prioritaria presentan una elevada incidencia (73%) de dolor de hombro debido al sobreuso y al movimiento repetitivo de la propulsión. Existen numerosos métodos de diagnóstico para la detección de las patologías del hombro, sin embargo la literatura reclama la necesidad de un test no invasivo y fiable, y sugiere la termografía como una técnica adecuada para evaluar el dolor articular. La termografía infrarroja (IRT) proporciona información acerca de los procesos fisiológicos a través del estudio de las distribuciones de la temperatura de la piel. Debido a la alta correlación entre ambos lados corporales, las asimetrías térmicas entre flancos contralaterales son una buena indicación de patologías o disfunciones físicas subyacentes. La fiabilidad de la IRT ha sido estudiada con anterioridad en sujetos sanos, pero nunca en usuarios de sillas de ruedas. Las características especiales de la población con discapacidad (problemas de sudoración y termorregulación, distribución sanguínea o medicación), hacen necesario estudiar los factores que afectan a la aplicación de la IRT en usuarios de sillas de ruedas. La bibliografía discrepa en cuanto a los beneficios o daños resultantes de la práctica de la actividad física en las lesiones de hombro por sobreuso en usuarios de sillas de ruedas. Recientes resultados apuntan a un aumento del riesgo de rotura del manguito rotador en personas con paraplejia que practican deportes con elevación del brazo por encima de la cabeza. Debido a esta falta de acuerdo en la literatura, surge la necesidad de analizar el perfil termográfico en usuarios de sillas de ruedas sedentarios y deportistas y su relación con el dolor de hombro. Hasta la fecha sólo se han publicado estudios termográficos durante el ejercicio en sujetos sanos. Un mayor entendimiento de la respuesta termográfica al ejercicio en silla de ruedas en relación al dolor de hombro clarificará su aparición y desarrollo y permitirá una apropiada intervención. El primer estudio demuestra que la fiabilidad de la IRT en usuarios de sillas de ruedas varía dependiendo de las zonas analizadas, y corrobora que la IRT es una técnica no invasiva, de no contacto, que permite medir la temperatura de la piel, y con la cual avanzar en la investigación en usuarios de sillas de ruedas. El segundo estudio proporciona un perfil de temperatura para usuarios de sillas de ruedas. Los sujetos no deportistas presentaron mayores asimetrías entre lados corporales que los sedentarios, y ambos obtuvieron superiores asimetrías que los sujetos sin discapacidad reportados en la literatura. Los no deportistas también presentaron resultados más elevados en el cuestionario de dolor de hombro. El área con mayores asimetrías térmicas fue hombro. En deportistas, algunas regiones de interés (ROIs) se relacionaron con el dolor de hombro. Estos resultados ayudan a entender el mapa térmico en usuarios de sillas de ruedas. El último estudio referente a la evaluación de la temperatura de la piel en usuarios de sillas de ruedas en ejercicio, reportó diferencias significativas entre la temperatura de la piel antes del test y 10 minutos después del test de propulsión de silla de ruedas, en 12 ROIs; y entre el post-test y 10 minutos después del test en la mayoría de las ROIs. Estas diferencias se vieron atenuadas cuando se compararon las asimetrías antes y después del test. La temperatura de la piel tendió a disminuir inmediatamente después completar el ejercicio, e incrementar significativamente 10 minutos después. El análisis de las asimetrías vs dolor de hombro reveló relaciones significativas negativas en 5 de las 26 ROIs. No se encontraron correlaciones significativas entre las variables de propulsión y el cuestionario de dolor de hombro. Todas las variables cinemáticas correlacionaron significativamente con las asimetrías en múltiples ROIs. Estos resultados indican que los deportistas en sillas de ruedas exhiben una capacidad similar de producir calor que los deportistas sin discapacidad; no obstante, su patrón térmico es más característico de ejercicios prolongados que de esfuerzos breves. Este trabajo contribuye al conocimiento de la termorregulación en usuarios de sillas de ruedas durante el ejercicio, y aporta información relevante para programas deportivos y de rehabilitación. ABSTRACT Individuals who use wheelchairs as their main means of mobility have a high incidence (73%) of shoulder pain (SP) owing to overuse and repetitive propulsion movement. There are numerous diagnostic methods for the detection of shoulder pathologies, however the literature claims that a noninvasive accurate test to properly assess shoulder pain would be necessary, and suggests thermography as a suitable technique for joint pain evaluation. Infrared thermography (IRT) provides information about physiological processes by studying the skin temperature (Tsk) distributions. Due to the high correlation of skin temperature between both sides of the body, thermal asymmetries between contralateral flanks are an indicator of underlying pathologies or physical dysfunctions. The reliability of infrared thermography has been studied in healthy subjects but there are no studies that have analyzed the reliability of IRT in wheelchair users (WCUs). The special characteristics of people with disabilities (sweating and thermoregulation problems, or blood distribution) make it necessary to study the factors affecting the application of IRT in WCUs. Discrepant reports exist on the benefits of, or damage resulting from, physical exercise and the relationship to shoulder overuse injuries in WCUs. Recent findings have found that overhead sports increase the risk of rotator cuff tears in wheelchair patients with paraplegia. Since there is no agreement in the literature, the thermographic profile of wheelchair athletes and nonathletes and its relation with shoulder pain should also be analysed. Infrared thermographic studies during exercise have been carried out only with able-bodied population at present. The understanding of the thermographic response to wheelchair exercise in relation to shoulder pain will offer an insight into the development of shoulder pain, which is necessary for appropriate interventions. The first study presented in this thesis demonstrates that the reliability of IRT in WCUs varies depending on the areas of the body that are analyzed. Moreover, it corroborates that IRT is a noninvasive and noncontact technique that allows the measurement of Tsk, which will allow for advances to be made in research concerned with WCUs. The second study provides a thermal profile of WCUs. Nonathletic subjects presented higher side-to-side skin temperature differences (ΔTsk) than athletes, and both had greater ΔTsk than the able-bodied results that have been published in the literature. Nonathletes also revealed larger Wheelchair Users Shoulder Pain Index (WUSPI) score than athletes. The shoulder region of interest (ROI) was the area with the highest ΔTsk of the regions measured. The analysis of the athletes’ Tsk showed that some ROIs are related to shoulder pain. These findings help to understand the thermal map in WCUs. Finally, the third study evaluated the thermal response of WCUs in exercise. There were significant differences in Tsk between the pre-test and the post-10 min in 12 ROIs, and between the post-test and the post-10 in most of the ROIs. These differences were attenuated when the ΔTsk was compared before and after exercise. Skin temperature tended to initially decrease immediately after the test, followed by a significant increase at 10 minutes after completing the exercise. The ΔTsk versus shoulder pain analysis yielded significant inverse relationships in 5 of the 26 ROIs. No significant correlations between propulsion variables and the results of the WUSPI questionnaire were found. All kinematic variables were significantly correlated with the temperature asymmetries in multiple ROIs. These results present indications that high performance wheelchair athletes exhibit similar capacity of heat production to able-bodied population; however, they presented a thermal pattern more characteristic of a prolonged exercise rather than brief exercise. This work contributes to improve the understanding about temperature changes in wheelchair athletes during exercise and provides implications to the sports and rehabilitation programs.
Resumo:
Desde hace más de una década se vienen realizando en España enormes esfuerzos por implantar programas bilingües español-inglés en los centros educativos y es, por tanto, de gran interés conocer qué efectos ha tenido y está teniendo actualmente la implantación de dichos programas en los alumnos. Son, así pues, objetivos de este trabajo: identificar los efectos de la educación bilingüe en España, establecer propuestas de mejora frente a los problemas o insuficiencias detectadas y, por último, ofrecer una serie de propuestas relativas a la elaboración de materiales didácticos dentro del enfoque metodológico de Aprendizaje Integrado de Contenidos y Lenguas Extranjeras (AICLE). Se presentan también un banco de recursos didácticos de apoyo a uno de los bloques en los que se organiza la asignatura de Tecnología de la Enseñanza Secundaria Obligatoria, los resultados esperados del proyecto, una propuesta de valoración de la puesta en práctica del mismo y, como conclusión, se valoran positivamente este tipo de recursos y se propone la conveniencia de desarrollar nuevos recursos didácticos que aborden otras temáticas dentro de la Tecnología. ABSTRACT From the mid-nineties onwards great efforts have been made in Spain in order to implement bilingual education programs into primary and secondary schools. Therefore, this work’s main objectives are to identify the effects of bilingual education in Spain and to make proposals for the improvement or elimination of the identified problems and weaknesses and for creating Content and Language Integrated Learning- specific learning materials. The work also includes a teacher resource bank to support one of the blocks in which the subject of Technology in Secondary Education is organized, the expected results, an assessment plan to measure the project’s success and, as a conclusion, it is highlighted the need for creating new materials that address other thematic areas within the subject of Tecnology.
Resumo:
La presente tesis analiza la mejora de la resistencia estructural ante vuelco de autocares enfocando dos vías de actuación: análisis y propuestas de requisitos reglamentarios a nivel europeo y la generación de herramientas que ayuden al diseño y a la verificación de estos requisitos. Los requisitos reglamentarios de resistencia estructural a vuelco contemplan la superestructura de los vehículos pero no para los asientos y sistemas de retención. La influencia de los pasajeros retenidos es superior a la incluida en reglamentación (Reg. 66.01) debiendo considerarse unida al vehículo un porcentaje de la masa de los pasajeros del 91% para cinturón de tres puntos y del 52% para cinturón subabdominal frente al 50% reglamentario para todos los casos. Se ha determinado la cinemática y dinámica del vuelco normativo en sus diferentes fases, formulando las energías en las fases iniciales (hasta el impacto contra el suelo) y determinando la fase final de deformación a través del análisis secuencial de ensayos de módulos reales. Se han determinado los esfuerzos para los asientos que se dividen en dos fases diferenciadas temporalmente: una primera debida a la deformación estructural y una segunda debida al esfuerzo del pasajero retenido que se produce en sentido opuesto (con una deceleración del pasajero en torno a 3.3 g). Se ha caracterizado a través de ensayos cuasi.estáticos el comportamiento de perfiles a flexión y de las uniones estructurales de las principales zonas del vehículo (piso, ventana y techo) verificándose la validez del comportamiento plástico teórico Kecman.García para perfiles de hasta 4 mm de espesor y caracterizando la resistencia y rigidez en la zona elástica de las uniones en función del tipo de refuerzo, materiales y perfiles (análisis de más de 180 probetas). Se ha definido un método de ensayo cuasi.estático para asientos ante esfuerzos de vuelco, ensayándose 19 butacas y determinándose que son resistentes (salvo las uniones a vehículo con pinzas), que son capaces de absorber hasta más de un 17% de la energía absorbida, aunque algunos necesitan optimización para llegar a contribuir en el mecanismo de deformación estructural. Se han generado modelos simplificados para introducir en los modelos barra.rótula plástica: un modelo combinado unión+rótula plástica (que incluye la zona de rigidez determinada en función del tipo de unión) para la superestructura y un modelo simplificado de muelles no.lineales para los asientos. Igualmente se ha generado la metodología de diseño a través de ensayos virtuales con modelos de detalle de elementos finitos tanto de las uniones como de los asientos. Se ha propuesto una metodología de diseño basada en obtener el “mecanismo óptimo de deformación estructural” (elevando la zona de deformación lateral a nivel de ventana y en pilar o en costilla en techo). Para ello se abren dos vías: diseño de la superestructura (selección de perfiles y generación de uniones resistentes) o combinación con asientos (que en lugar de solo resistir las cargas pueden llegar a modificar el mecanismo de deformación). Se ha propuesto una metodología de verificación alternativa al vuelco de vehículo completo que contempla el cálculo cuasi.estático con modelos simplificados barra.rótula plástica más el ensayo de una sección representativa con asientos y utillajes antropomórficos retenidos que permite validar el diseño de las uniones, determinar el porcentaje de energía que debe absorberse por deformación estructural (factor C) y verificar el propio asiento como sistema de retención. ABSTRACT This research analyzes the improvement of the structural strength of buses and coaches under rollover from two perspectives: regulatory requirements at European level and generation of tools that will help to the design and to the verification of requirements. European Regulations about rollover structural strength includes requirements for the superstructure of the vehicles but not about seats, anchorages and restraint systems. The influence of the retained passengers is higher than the one included currently in the Regulations (Reg. 66.01), being needed to consider a 91% of the passenger mass as rigidly joint to the vehicle (for 3 points’ belt, a 52% for 2 points’ belt) instead of the 50% included in the Regulation. Kinematic and dynamic of the normative rollover has been determined from testing of different sections, formulating the energies of the first phases (up to the first impact with the ground) and determining the last deformation phase through sequential analysis of movements and deformations. The efforts due to rollover over the seats have been established, being divided in two different temporal phases: a first one due to the structural deformation of the vehicle and a second one due to the effort of the restrained passenger being this second one in opposite sense (with a passenger deceleration around 3.3 g). From quasi.static testing, the behavior of the structural tubes under flexural loads, including the principal joints in the vehicle (floor, window and roof), the validity of the theoretical plastic behavior according Kecman.García theories have been verified up to 4 mm of thickness. Strength of the joints as well as the stiffness of the elastic zone has been determined in function of main parameters: type of reinforcement, materials and section of the tubes (more than 180 test specimens). It has been defined a quasi.static testing methodology to characterize the seats and restrain system behavior under rollover, testing 19 double seats and concluding that they are resistant (excepting clamping joints), that they can absorb more than a 17 of the absorbed energy, and that some of them need optimization to contribute in the structural deformation mechanism. It has been generated simplified MEF models, to analyze in a beam.plastic hinge model: a combined model joint+plastic hinge (including the stiffness depending on the type of joint) for the superstructure and a simplified model with non.lineal springs to represent the seats. It has been detailed methodologies for detailed design of joints and seats from virtual testing (MEF models). A design methodology based in the “optimized structural deformation mechanism” (increasing the height of deformation of the lateral up to window level) is proposed. Two possibilities are analyzed: design of the superstructure based on the selection of profiles and design of strength joints (were seats only resist the efforts and contribute in the energy absorption) or combination structure.seats, were seats contributes in the deformation mechanism. An alternative methodology to the rollover of a vehicle that includes the quasi.static calculation with simplified models “beam.joint+plastic hinge” plus the testing of a representative section of the vehicle including seats and anthropomorphic ballast restrained by the safety belts is presented. The test of the section allows validate the design of the joints, determine the percentage of energy to be absorbed by structural deformation (factor C) and verify the seat as a retention system.
Resumo:
La actividad volcánica interviene en multitud de facetas de la propia actividad humana, no siempre negativas. Sin embargo, son más los motivos de peligrosidad y riesgo que incitan al estudio de la actividad volcánica. Existen razones de seguridad que inciden en el mantenimiento del seguimiento y monitorización de la actividad volcánica para garantizar la vida y la seguridad de los asentamientos antrópicos en las proximidades de los edificios volcánicos. En esta tesis se define e implementa un sistema de monitorización de movimientos de la corteza en las islas de Tenerife y La Palma, donde el impacto social que representa un aumento o variación de la actividad volcánica en las islas es muy severo. Aparte de la alta densidad demográfica del Archipiélago, esta población aumenta significativamente, en diferentes periodos a lo largo del año, debido a la actividad turística que representa la mayor fuente de ingresos de las islas. La población y los centros turísticos se diseminan predominantemente a lo largo de las costas y también a lo largo de los flancos de los edificios volcánicos. Quizá el mantenimiento de estas estructuras sociales y socio-económicas son los motivos más importantes que justifican una monitorización de la actividad volcánica en las Islas Canarias. Recientemente se ha venido trabajando cada vez más en el intento de predecir la actividad volcánica utilizando los nuevos sistemas de monitorización geodésica, puesto que la actividad volcánica se manifiesta anteriormente por deformación de la corteza terrestre y cambios en la fuerza de la gravedad en la zona donde más tarde se registran eventos volcánicos. Los nuevos dispositivos y sensores que se han desarrollado en los últimos años en materias como la geodesia, la observación de la Tierra desde el espacio y el posicionamiento por satélite, han permitido observar y medir tanto la deformación producida en el terreno como los cambios de la fuerza de la gravedad antes, durante y posteriormente a los eventos volcánicos que se producen. Estos nuevos dispositivos y sensores han cambiado las técnicas o metodologías geodésicas que se venían utilizando hasta la aparición de los mismos, renovando métodos clásicos y desarrollando otros nuevos que ya se están afianzando como metodologías probadas y reconocidas para ser usadas en la monitorización volcánica. Desde finales de la década de los noventa del siglo pasado se han venido desarrollando en las Islas Canarias varios proyectos que han tenido como objetivos principales el desarrollo de nuevas técnicas de observación y monitorización por un lado y el diseño de una metodología de monitorización volcánica adecuada, por otro. Se presenta aquí el estudio y desarrollo de técnicas GNSS para la monitorización de deformaciones corticales y su campo de velocidades para las islas de Tenerife y La Palma. En su implementación, se ha tenido en cuenta el uso de la infraestructura geodésica y de monitorización existente en el archipiélago a fin de optimizar costes, además de complementarla con nuevas estaciones para dar una cobertura total a las dos islas. Los resultados obtenidos en los proyectos, que se describen en esta memoria, han dado nuevas perspectivas en la monitorización geodésica de la actividad volcánica y nuevas zonas de interés que anteriormente no se conocían en el entorno de las Islas Canarias. Se ha tenido especial cuidado en el tratamiento y propagación de los errores durante todo el proceso de observación, medida y proceso de los datos registrados, todo ello en aras de cuantificar el grado de fiabilidad de los resultados obtenidos. También en este sentido, los resultados obtenidos han sido verificados con otros procedentes de sistemas de observación radar de satélite, incorporando además a este estudio las implicaciones que el uso conjunto de tecnologías radar y GNSS tendrán en un futuro en la monitorización de deformaciones de la corteza terrestre. ABSTRACT Volcanic activity occurs in many aspects of human activity, and not always in a negative manner. Nonetheless, research into volcanic activity is more likely to be motivated by its danger and risk. There are security reasons that influence the monitoring of volcanic activity in order to guarantee the life and safety of human settlements near volcanic edifices. This thesis defines and implements a monitoring system of movements in the Earth’s crust in the islands of Tenerife and La Palma, where the social impact of an increase (or variation) of volcanic activity is very severe. Aside from the high demographic density of the archipelago, the population increases significantly in different periods throughout the year due to tourism, which represents a major source of revenue for the islands. The population and the tourist centres are mainly spread along the coasts and also along the flanks of the volcanic edifices. Perhaps the preservation of these social and socio-economic structures is the most important reason that justifies monitoring volcanic activity in the Canary Islands. Recently more and more work has been done with the intention of predicting volcanic activity, using new geodesic monitoring systems, since volcanic activity is evident prior to eruption because of a deformation of the Earth’s crust and changes in the force of gravity in the zone where volcanic events will later be recorded. The new devices and sensors that have been developed in recent years in areas such as geodesy, the observation of the Earth from space, and satellite positioning have allowed us to observe and measure the deformation produced in the Earth as well as the changes in the force of gravity before, during, and after the volcanic events occur. The new devices and sensors have changed the geodetic techniques and methodologies that were used previously. The classic methods have been renovated and other newer ones developed that are now vouched for as proven recognised methodologies to be used for volcanic monitoring. Since the end of the 1990s, in the Canary Islands various projects have been developed whose principal aim has been the development of new observation and monitoring techniques on the one hand, and the design of an appropriate volcanic monitoring methodology on the other. The study and development of GNSS techniques for the monitoring of crustal deformations and their velocity field is presented here. To carry out the study, the use of geodetic infrastructure and existing monitoring in the archipelago have been taken into account in order to optimise costs, besides complementing it with new stations for total coverage on both islands. The results obtained in the projects, which are described below, have produced new perspectives in the geodetic monitoring of volcanic activity and new zones of interest which previously were unknown in the environment of the Canary Islands. Special care has been taken with the treatment and propagation of errors during the entire process of observing, measuring, and processing the recorded data. All of this was done in order to quantify the degree of trustworthiness of the results obtained. Also in this sense, the results obtained have been verified with others from satellite radar observation systems, incorporating as well in this study the implications that the joint use of radar technologies and GNSS will have for the future of monitoring deformations in the Earth’s crust.
Resumo:
Cinchona officinalis (Rubiaceae), especie endémica del Valle de Loja, ubicado en la región sur del Ecuador, es un recurso forestal de importancia medicinal y ecológica, además la especie ha sido catalogada como planta nacional y es un ícono de la región sur por su aporte a la farmacopea mundial. Esta especie, entre los siglos XVII-XIX sufrió una gran presión en sus poblaciones debido a la extracción masiva de la corteza para la cura del paludismo. Aunque la actividad extractiva generó grandes ingresos a la Corona Española y a la región Sur del Ecuador, ésta fue poco o nada sustentable ecológicamente, provocando la desaparición de la especie en muchos sitios de la provincia, pues, en su momento, no se consideraron alternativas de recuperación de las poblaciones naturales. Actualmente la extracción y consumo de la corteza en la zona de origen es baja o nula, sin embargo esta zona enfrenta nuevas amenazas. La deforestación a causa de proyectos de desarrollo en infraestructuras, la práctica de actividades agrícolas y de ganadería, y los efectos del cambio climático han ocasionado, en estos últimos años, la fragmentación de los ecosistemas. La mayoría de los bosques del sur del Ecuador se han convertido en parches aislados (los bosques en los que se distribuye C. officinalis no son la excepción) siendo esta la principal causa para que la especie se encuentre en estado de amenaza. Los individuos de la especie tienen una alta capacidad de rebrote y producen semillas durante todo el año; sin embargo la capacidad germinativa y la tasa de sobrevivencia son bajas, además de estas dificultades la especie requiere de la asociación con otras especies vegetales para su desarrollo, lo cual ha limitado su distribución en pequeños parches aislados. Con esta problemática, la recuperación natural de las poblaciones es una necesidad evidente. Varios trabajos y esfuerzos previos se han realizado a nivel local: i. Identificación de la distribución actual y potencial; ii. Determinación de la fenología y fructificación iii. Programas de educación ambiental, iv. Análisis moleculares para determinar la diversidad genética. v. Ensayos de propagación vegetativa; y otras acciones de tipo cultural. No obstante, el estado de conservación y manejo de las poblaciones naturales no ha mejorado significativamente, siendo necesaria la aplicación de estrategias integradas de conservación in situ y ex situ, que permitan la recuperación y permanencia de las poblaciones naturales a largo plazo. El presente trabajo tiene como fin dar alternativas para el cultivo de tejidos in vitro de Cinchona officinalis centrados en la propagación masiva a partir de semillas, análisis de la fidelidad genética y alternativas de conservación de tejidos. Los objetivos específicos que se plantean son: i. Analizar el proceso de germinación y proliferación in vitro. ii. Evaluar la estabilidad genética en explantes cultivados in vitro, mediante marcadores ISSR. iii. Establecer protocolos de conservación in vitro mediante limitación del crecimiento y criopreservación de segmentos nodales y yemas. Los resultados más significativos de esta investigación fueron: i. El desarrollo de protocolos eficientes para mejorar los porcentajes de germinación y la proliferación de brotes en explantos cultivados in vitro. Para evaluar el efecto de los fenoles sobre la germinación, se determinó el contenido total de fenoles y el porcentaje de germinación en semillas de C. officinalis comparados con una especie de control, C. pubescens. Para inducir a proliferación, se utilizaron segmentos nodales de plántulas germinadas in vitro en medio Gamborg (1968) suplementado con diferentes combinaciones de reguladores de crecimiento (auxinas y citoquininas). Los resultados obtenidos sugieren que el contenido de compuestos fenólicos es alto en las semillas de C. officinalis en comparación con las semillas de C. pubescens. Estos fenoles pueden eliminarse con peróxido de hidrógeno o con lavados de agua para estimular la germinación. La formación de nuevos brotes y callos en la mayoría de las combinaciones de reguladores de crecimiento se observó en un período de 45 días. El mayor porcentaje de proliferación de brotes, formación de callos y presencia de brotes adventicios se obtuvo en medio Gamborg (B5) suplementado con 5.0 mg/l 6-bencil-aminopurina y 3.0 mg/l de ácido indol-3-butírico. ii. La evaluación de la fidelidad genética de los explantes obtenidos con distintas combinaciones de reguladores de crecimiento vegetal y diversos subcultivos. Se realizó el seguimiento a los explantes obtenidos de la fase anterior, determinando el índice de multiplicación y analizando la fidelidad genética de los tejidos obtenidos por las dos vías regenerativas: brotación directa y regeneración de brotes a partir de callos. Este análisis se realizó por amplificación mediante PCR de las secuencias ubicadas entre microsatélites-ISSR (Inter simple sequence repeat). El medio Gamborg (B5) con 3.0 mg/l de AIB y 5.0 mg/l de BAP usado como medio de inducción en la primera etapa de cultivo generó el mayor índice de proliferación (11.5). Un total de 13 marcadores ISSR fueron analizados, 6 de éstos fueron polimórficos. El mayor porcentaje de variación somaclonal fue inducido en presencia de 1.0 mg/l 2,4-D combinado con 0.2 mg/l Kin con un 1.8% en el segundo sub-cultivo de regeneración, la cual incrementó a 3.6% en el tercer sub-cultivo. Todas las combinaciones con presencia de 2,4-D produjeron la formación de callos y presentaron variación genética. Por su parte la fidelidad genética se mantuvo en los sistemas de propagación directa a través de la formación de brotes a partir de meristemos preformados. iii. El establecimiento de protocolos de conservación in vitro y crioconservación de segmentos nodales y yemas. Para la conservación limitando el crecimiento, se cultivaron segmentos nodales en los medios MS y B5 en tres concentraciones de sus componentes (25, 50 y 100%); y en medio B5 más agentes osmóticos como el manitol, sorbitol y sacarosa en diferentes concentraciones (2, 4 y 8%); los cultivos se mantuvieron por 12 meses sin subcultivos. Para el establecimiento de protocolos para la crioconservación (paralización del metabolismo) se usaron yemas axilares y apicales a las cuales se les aplicaron los métodos de encapsulación-deshidratación y vitrificación. La efectividad de los protocolos usados se determinó en función de la sobrevivencia, reducción del crecimiento y regeneración. Los resultados obtenidos en este apartado reflejan que un crecimiento limitado puede mantener tejidos durante 12 meses de almacenamiento, usando medio B5 más manitol entre 2 y 8%. En los protocolos de crioconservación, se obtuvo el mayor porcentaje de recuperación tras la congelación en NL en el tratamiento control seguido por el método crioprotector de encapsulación-deshidratación. Este trabajo brinda alternativas para la propagación de C. officinalis bajo condiciones in vitro, partiendo de material vegetal con alta diversidad genética. El material propagado puede ser fuente de germoplasma para la recuperación y reforzamiento de las poblaciones naturales así como una alternativa de producción para las comunidades locales debido a la demanda actual de corteza de la zona de origen para la elaboración de agua tónica. ABSTRACT Cinchona officinalis (Rubiaceae) is endemic to the Loja Valley, located in the southern area of Ecuador. The importance of this plant as medical and ecological resource is so great that it has been designated as the national flower and is an icon of the southern region for its contribution to the world pharmacopoeia. Between XVII-XIX centuries its population suffered great reduction due to massive harvesting of the bark to cure malaria. Although extraction activity generated large revenues to the Spanish Crown and the southern region of Ecuador, this was not ecologically sustainable, causing the disappearance of the species in many areas of the province, because during that time alternatives to prevent extinction and recover natural populations were not taken in account. Currently the extraction and consumption of bark in the area of origin is almost absent, but this species faces new threats. Deforestation due to infrastructure development, the practice of farming and ranching, and the effects of climate change had led to the fragmentation of ecosystems during the recent years. Most of the forests of southern Ecuador have become isolated patches, including those where C. officinalis is diffused. The lack of suitable habitat is today the main threat for the species. The species has a high capacity for regeneration and produces seeds throughout the year, but the germination rate is low and the growth is slow. In addition, the species requires the association with other plant species to develop. All these factors had limited its distribution to small isolated patches. The natural recovery of populations is essential to face this problem. Several studies and previous efforts had been made at local level: i. Identification of current and potential distribution; ii. Phenology determination. iii. Environmental education programs, iv. Molecular analisis to determine the genetic diversity. v. Testing of vegetative propagation; and other actions of cultural nature. Despite these efforts, the state of conservation and management of natural populations has not improved significantly. Implementation of integrated in situ and ex situ conservation strategies for the recovery and permanence of long-term natural populations is still needed. This work aims to provide alternatives for in vitro culture of tissue of Cinchona officinalis focused on mass propagation from seeds, genetic fidelity analysis and tissue conservation alternatives. The specific aims are: i. Analyze the process of germination and proliferation in vitro. ii. To evaluate the genetic stability of the explants cultured in vitro by ISSR markers. iii. Establish protocols for in vitro conservation by limiting growth and cryopreservation of nodal segments and buds. The most significant results of this research were: i. The development of efficient protocols to improve germination rates and proliferation of buds in explants cultured in vitro. To study the effect of phenols on germination, the total phenolic content and percentage germination was measured in C. officinalis and in a control species, C. pubescens, for comparison. The content of phenolic compounds in C. officinalis seeds is higher than in C. pubescens. These phenols can be removed with hydrogen peroxide or water washes to stimulate germination. To analyze the regeneration, we used nodal explants from seedlings germinated in vitro on Gamborg medium (1968) supplemented with different combinations of growth regulators (auxins and cytokinins) to induce proliferation. The formation of new shoots and calluses was observed within a period of 45 days in most combinations of growth regulators. The highest percentage of shoot proliferation, callus formation and adventitious buds were obtained in B5 medium supplemented with 5.0 mg/l 6-benzyl-aminopurine and 3.0 mg/l indole-3-butyric acid. ii. Evaluating genetic fidelity explants obtained with various combinations of plant growth regulators and different subcultures. The genetic fidelity was analyzed in tissues obtained by the two regenerative pathways: direct sprouting and shoot regeneration from callus. This analysis was performed by PCR amplification of the sequences located between microsatellite-ISSR (Inter Simple Sequence Repeat). Among a total of 13 ISSR markers analyzed, 6 were polymorphic. The highest percentage of somaclonal variation was induced in the presence of 1.0 mg/l 2,4-D combined with 0.2 mg/l Kin with 1.8% in the second round of regeneration, and increased to 3.6% in the third round. The presence of 2,4-D induced genetic variation in all the combinations of growth regulators. Meanwhile genetic fidelity remained systems propagation through direct shoot formation from meristems preformed. iii. Establishing conservation protocols in vitro and cryoconservation of nodal segments and buds. For medium-term conservation (limited growth) nodal segments were cultured in MS and B5 media at three concentrations (25, 50 and 100%); we tested B5 medium with different concentrations of osmotic agents such as mannitol, sorbitol and sucrose (2, 4 and 8%); cultures were maintained for 12 months with regular subculturing. To establish protocols for cryoconservation (cessation of metabolism) different methods of encapsulation-dehydration and vitrification were applied to axillary and apical buds. The effectiveness of the used protocols is determined based on the survival, growth and regeneration success. The results show that these tissues can be maintained in storage for 12 months, using B5 medium plus mannitol between 2 and 8%. The cryoconservation protocol with highest percentage of recovery was obtained by contral treatment, followed by freezing in NL with encapsulation-dehydration method. This work provides alternatives for the propagation in vitro of C. officinalis, starting from plant material with high genetic diversity. The obtained material represents a source of germplasm to support the recovery and strengthening of natural populations as well as a creation of alternative sources for local communities due to the current demand of bark for the preparation of tonic water.