927 resultados para MALLA VIAL
Resumo:
El objetivo del presente trabajo fue predecir, en función del tiempo, los campos de velocidad, presión, temperatura y concentración de especies químicas de una mezcla no reactiva de aire, gases de recirculación y combustible (iso-octano), en una pre-cámara de combustión de un motor CFR, mediante la técnica de la simulación numérica de flujo de fluidos. Para ello se revisó el procedimiento de la solución numérica de las ecuaciones de transporte, aplicadas a la pre-cámara de combustión del motor CFR. La simulación se basó en el software CFX 10. Se hizo un estudio de la sensibilidad de malla para adecuar el criterio de·convergencia que el software requiere. La pre-cámara de combustión empleada para este estudio fue una pre-cámara de combustión modificada de un motor CFR para hacer que el mismo funcione como un motor HCCI. El motor CFR está ubicado en la Universidad Politécnica de Madrid.
Resumo:
Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.
Resumo:
El riesgo asociado a la rotura de un depósito de agua en entorno urbano (como la ocurrida, por ejemplo, en la Ciudad Autónoma de Melilla en Noviembre de 1997) y los potenciales daños que puede causar, pone en duda la seguridad de este tipo de infraestructuras que, por necesidades del servicio de abastecimiento de agua, se construyen habitualmente en puntos altos y cercanos a los núcleos de población a los que sirven. Sin embargo, la baja probabilidad de que se produzca una rotura suele rebajar los niveles de alerta asociados a los depósitos, haciéndose hincapié en la mejora de los métodos constructivos sin elaborar metodologías que, como en el caso de las presas y las balsas de riego, establezcan la necesidad de clasificar el riesgo potencial de estas infraestructuras en función de su emplazamiento y de estudiar la posible construcción de medidas mitigadoras de una posible rotura. Por otro lado, para establecer los daños que pueden derivarse de una rotura de este tipo, se hace imprescindible la modelización bidimensional de la ola de rotura por cuanto la malla urbana a la que afectaran no es susceptible de simulaciones unidimensionales, dado que no hay un cauce que ofrezca un camino preferente al agua. Este tipo de simulación requiere de una inversión económica que no siempre está disponible en la construcción de depósitos de pequeño y mediano tamaño. Esta tesis doctoral tiene como objetivo el diseño de una metodología simplificada que, por medio de graficas y atendiendo a las variables principales del fenómeno, pueda estimar un valor para el riesgo asociado a una posible rotura y sirva como guía para establecer si un deposito (existente o de nueva implantación) requiere de un modelo de detalle para estimar el riesgo y si es conveniente implantar alguna medida mitigadora de la energía producida en una rotura de este tipo. Con carácter previo se ha establecido que las variables que intervienen en la definición de riesgo asociado a la rotura, son el calado y la velocidad máxima en cada punto sensible de sufrir daños (daños asociados al vuelco y arrastre de personas principalmente), por lo que se ha procedido a estudiar las ecuaciones que rigen el problema de la rotura del depósito y de la transmisión de la onda de rotura por la malla urbana adyacente al mismo, así como los posibles métodos de resolución de las mismas y el desarrollo informático necesario para una primera aproximación a los resultados. Para poder analizar las condiciones de contorno que influyen en los valores resultantes de velocidad y calado, se ha diseñado una batería de escenarios simplificados que, tras una modelización en detalle y un análisis adimensional, han dado como resultado que las variables que influyen en los valores de calado y velocidad máximos en cada punto son: la altura de la lamina de agua del depósito, la pendiente del terreno, la rugosidad, la forma del terreno (en términos de concavidad) y la distancia del punto de estudio al deposito. Una vez definidas las variables que influyen en los resultados, se ha llevado a cabo una segunda batería de simulaciones de escenarios simplificados que ha servido para la discusión y desarrollo de las curvas que se presentan como producto principal de la metodología simplificada. Con esta metodología, que solamente necesita de unos cálculos simples para su empleo, se obtiene un primer valor de calado y velocidad introduciendo la altura de la lámina de agua máxima de servicio del depósito cuyo riesgo se quiere evaluar. Posteriormente, y utilizando el ábaco propuesto, se obtienen coeficientes correctores de los valores obtenidos para la rugosidad y pendiente media del terreno que se esta evaluando, así como para el grado de concavidad del mismo (a través de la pendiente transversal). Con los valores obtenidos con las curvas anteriores se obtienen los valores de calado y velocidad en el punto de estudio y, aplicando la formulación propuesta, se obtiene una estimación del riesgo asociado a la rotura de la infraestructura. Como corolario a la metodología mencionada, se propone una segunda serie de gráficos para evaluar, también de forma simplificada, la reducción del riesgo que se obtendría con la construcción de alguna medida mitigadora como puede ser un dique o murete perimetral al depósito. Este método de evaluación de posible medidas mitigadoras, aporta una guía para analizar la posibilidad de disminuir el riesgo con la construcción de estos elementos, o la necesidad de buscar otro emplazamiento que, si bien pueda ser no tan favorable desde el punto de vista de la explotación del depósito, presente un menor riesgo asociado a su rotura. Como complemento a la metodología simplificada propuesta, y además de llevar a cabo la calibración de la misma con los datos obtenidos tras la rotura del depósito de agua de Melilla, se ha realizado una serie de ejemplos de utilización de la metodología para, además de servir de guía de uso de la misma, poder analizar la diferencia entre los resultados que se obtendrían con una simulación bidimensional detallada de cada uno de los casos y el método simplificado aplicado a los mismos. The potential risk of a catastrophic collapse of a water supply reservoir in an urban area (such as the one occurred in Melilla in November 1997) and the damages that can cause, make question the security in this kind of infrastructures, which, by operational needs, are frequently built in high elevations and close to the urban areas they serve to. Since the likelihood of breakage is quite low, the alert levels associated to those infrastructures have also been downgraded focussing on the improvement of the constructive methods without developing methodologies (like the ones used in the case of dams or irrigation ponds) where there is a need of classifying the potential risk of those tanks and also of installing mitigating measures. Furthermore, to establish the damages related to a breakage of this kind, a twodimensional modelling of the breakage wave becomes imperative given that the urban layout does not provide a preferential way to the water. This kind of simulation requires financial investment that is not always available in the construction of small and medium sized water tanks. The purpose of this doctoral thesis is to design a simplified methodology, by means of charts and attending to the main variables of the phenomenon, that could estimate a value to the risk associated to a possible breakage. It can also be used as a guidance to establish if a reservoir (existing or a new one) requires a detailed model to estimate the risk of a breakage and the benefits of installing measures to mitigate the breakage wave effects. Previously, it has been established that the variables involved in the risk associated to a breakage are the draft and the maximum speed in every point susceptible to damages (mainly damages related to people). Bellow, the equations ruling the problem of the reservoir breakage have been studied as well as the transmission of the breakage wave through the urban network of the city and the possible methods to solve the equations and the computer development needed to a first approach to the results. In order to be able to analyse the boundary conditions affecting the values resulting (speed and draft), a set of scenarios have been designed. After a detailed modelling and a dimensionless analysis it has been proved that the variables that influence the operational draughts and the maximum speed in every point are the water level in the tank, the slope, the roughness and form (in terms of concavity) of the terrain and the distance between the tank and the control point. Having defined the involving variables, a second set of simulations of the simplified scenarios has been carried out and has helped to discuss and develop the curves that are here presented as the final product of the simplified methodology. This methodology only needs some simple calculations and gives a first value of draft and speed by introducing the maximum water level of the tank being evaluated. Subsequently, using the suggested charts, the method gives correction coefficients of the measured values for roughness and average slope of the assessed terrain as well as the degree of concavity (through transverse gradient).With the values from the previous curves (operational draughts and speed at the point of survey) and applying the proposed formulation, an estimation of the risk associated to the breakage of the infrastructure is finally obtained. As a corollary of the mentioned methodology, another set of diagrams is proposed in order to evaluate, in a simplified manner also, the risk reduction that could be gained with the construction of some mitigating measures such as dikes or retaining walls around the reservoir. This evaluating method provides a guide to analyse the possibility to reduce the risk, constructing those elements or even looking for a different site that could be worse in terms of exploitation of the tank but much safer. As a complement to the simplified methodology here proposed, and apart from completing its calibration with the obtained data after the reservoir breakage in Melilla, a number of examples of the use of the methodology have been made to be used as a user guide of the methodology itself, as well as giving the possibility of analysing the different results that can be obtained from a thorough two-dimensional simulation or from the simplified method applied to the examples.
Resumo:
La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.
Resumo:
Esta tesis propone una completa formulación termo-mecánica para la simulación no-lineal de mecanismos flexibles basada en métodos libres de malla. El enfoque se basa en tres pilares principales: la formulación de Lagrangiano total para medios continuos, la discretización de Bubnov-Galerkin, y las funciones de forma libres de malla. Los métodos sin malla se caracterizan por la definición de un conjunto de funciones de forma en dominios solapados, junto con una malla de integración de las ecuaciones discretas de balance. Dos tipos de funciones de forma se han seleccionado como representación de las familias interpolantes (Funciones de Base Radial) y aproximantes (Mínimos Cuadrados Móviles). Su formulación se ha adaptado haciendo sus parámetros compatibles, y su ausencia de conectividad predefinida se ha aprovechado para interconectar múltiples dominios de manera automática, permitiendo el uso de mallas de fondo no conformes. Se propone una formulación generalizada de restricciones, juntas y contactos, válida para sólidos rígidos y flexibles, siendo estos últimos discretizados mediante elementos finitos (MEF) o libres de malla. La mayor ventaja de este enfoque reside en que independiza completamente el dominio con respecto de las uniones y acciones externas a cada sólido, permitiendo su definición incluso fuera del contorno. Al mismo tiempo, también se minimiza el número de ecuaciones de restricción necesarias para la definición de uniones realistas. Las diversas validaciones, ejemplos y comparaciones detalladas muestran como el enfoque propuesto es genérico y extensible a un gran número de sistemas. En concreto, las comparaciones con el MEF indican una importante reducción del error para igual número de nodos, tanto en simulaciones mecánicas, como térmicas y termo-mecánicas acopladas. A igualdad de error, la eficiencia numérica de los métodos libres de malla es mayor que la del MEF cuanto más grosera es la discretización. Finalmente, la formulación se aplica a un problema de diseño real sobre el mantenimiento de estructuras masivas en el interior de un reactor de fusión, demostrando su viabilidad en análisis de problemas reales, y a su vez mostrando su potencial para su uso en simulación en tiempo real de sistemas no-lineales. A new complete formulation is proposed for the simulation of nonlinear dynamic of multibody systems with thermo-mechanical behaviour. The approach is founded in three main pillars: total Lagrangian formulation, Bubnov-Galerkin discretization, and meshfree shape functions. Meshfree methods are characterized by the definition of a set of shape functions in overlapping domains, and a background grid for integration of the Galerkin discrete equations. Two different types of shape functions have been chosen as representatives of interpolation (Radial Basis Functions), and approximation (Moving Least Squares) families. Their formulation has been adapted to use compatible parameters, and their lack of predefined connectivity is used to interconnect different domains seamlessly, allowing the use of non-conforming meshes. A generalized formulation for constraints, joints, and contacts is proposed, which is valid for rigid and flexible solids, being the later discretized using either finite elements (FEM) or meshfree methods. The greatest advantage of this approach is that makes the domain completely independent of the external links and actions, allowing to even define them outside of the boundary. At the same time, the number of constraint equations needed for defining realistic joints is minimized. Validation, examples, and benchmarks are provided for the proposed formulation, demonstrating that the approach is generic and extensible to further problems. Comparisons with FEM show a much lower error for the same number of nodes, both for mechanical and thermal analyses. The numerical efficiency is also better when coarse discretizations are used. A final demonstration to a real problem for handling massive structures inside of a fusion reactor is presented. It demonstrates that the application of meshfree methods is feasible and can provide an advantage towards the definition of nonlinear real-time simulation models.
Resumo:
La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdad” del 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.
Resumo:
La investigación de esta tesis se centra en el estudio de técnicas geoestadísticas y su contribución a una mayor caracterización del binomio factores climáticos-rendimiento de un cultivo agrícola. El inexorable vínculo entre la variabilidad climática y la producción agrícola cobra especial relevancia en estudios sobre el cambio climático o en la modelización de cultivos para dar respuesta a escenarios futuros de producción mundial. Es información especialmente valiosa en sistemas operacionales de monitoreo y predicción de rendimientos de cultivos Los cuales son actualmente uno de los pilares operacionales en los que se sustenta la agricultura y seguridad alimentaria mundial; ya que su objetivo final es el de proporcionar información imparcial y fiable para la regularización de mercados. Es en este contexto, donde se quiso dar un enfoque alternativo a estudios, que con distintos planteamientos, analizan la relación inter-anual clima vs producción. Así, se sustituyó la dimensión tiempo por la espacio, re-orientando el análisis estadístico de correlación interanual entre rendimiento y factores climáticos, por el estudio de la correlación inter-regional entre ambas variables. Se utilizó para ello una técnica estadística relativamente nueva y no muy aplicada en investigaciones similares, llamada regresión ponderada geográficamente (GWR, siglas en inglés de “Geographically weighted regression”). Se obtuvieron superficies continuas de las variables climáticas acumuladas en determinados periodos fenológicos, que fueron seleccionados por ser factores clave en el desarrollo vegetativo de un cultivo. Por ello, la primera parte de la tesis, consistió en un análisis exploratorio sobre comparación de Métodos de Interpolación Espacial (MIE). Partiendo de la hipótesis de que existe la variabilidad espacial de la relación entre factores climáticos y rendimiento, el objetivo principal de esta tesis, fue el de establecer en qué medida los MIE y otros métodos geoestadísticos de regresión local, pueden ayudar por un lado, a alcanzar un mayor entendimiento del binomio clima-rendimiento del trigo blando (Triticum aestivum L.) al incorporar en dicha relación el componente espacial; y por otro, a caracterizar la variación de los principales factores climáticos limitantes en el crecimiento del trigo blando, acumulados éstos en cuatro periodos fenológicos. Para lleva a cabo esto, una gran carga operacional en la investigación de la tesis consistió en homogeneizar y hacer los datos fenológicos, climáticos y estadísticas agrícolas comparables tanto a escala espacial como a escala temporal. Para España y los Bálticos se recolectaron y calcularon datos diarios de precipitación, temperatura máxima y mínima, evapotranspiración y radiación solar en las estaciones meteorológicas disponibles. Se dispuso de una serie temporal que coincidía con los mismos años recolectados en las estadísticas agrícolas, es decir, 14 años contados desde 2000 a 2013 (hasta 2011 en los Bálticos). Se superpuso la malla de información fenológica de cuadrícula 25 km con la ubicación de las estaciones meteorológicas con el fin de conocer los valores fenológicos en cada una de las estaciones disponibles. Hecho esto, para cada año de la serie temporal disponible se calcularon los valores climáticos diarios acumulados en cada uno de los cuatro periodos fenológicos seleccionados P1 (ciclo completo), P2 (emergencia-madurez), P3 (floración) y P4 (floraciónmadurez). Se calculó la superficie interpolada por el conjunto de métodos seleccionados en la comparación: técnicas deterministas convencionales, kriging ordinario y cokriging ordinario ponderado por la altitud. Seleccionados los métodos más eficaces, se calculó a nivel de provincias las variables climatológicas interpoladas. Y se realizaron las regresiones locales GWR para cuantificar, explorar y modelar las relaciones espaciales entre el rendimiento del trigo y las variables climáticas acumuladas en los cuatro periodos fenológicos. Al comparar la eficiencia de los MIE no destaca una técnica por encima del resto como la que proporcione el menor error en su predicción. Ahora bien, considerando los tres indicadores de calidad de los MIE estudiados se han identificado los métodos más efectivos. En el caso de la precipitación, es la técnica geoestadística cokriging la más idónea en la mayoría de los casos. De manera unánime, la interpolación determinista en función radial (spline regularizado) fue la técnica que mejor describía la superficie de precipitación acumulada en los cuatro periodos fenológicos. Los resultados son más heterogéneos para la evapotranspiración y radiación. Los métodos idóneos para estas se reparten entre el Inverse Distance Weighting (IDW), IDW ponderado por la altitud y el Ordinary Kriging (OK). También, se identificó que para la mayoría de los casos en que el error del Ordinary CoKriging (COK) era mayor que el del OK su eficacia es comparable a la del OK en términos de error y el requerimiento computacional de este último es mucho menor. Se pudo confirmar que existe la variabilidad espacial inter-regional entre factores climáticos y el rendimiento del trigo blando tanto en España como en los Bálticos. La herramienta estadística GWR fue capaz de reproducir esta variabilidad con un rendimiento lo suficientemente significativo como para considerarla una herramienta válida en futuros estudios. No obstante, se identificaron ciertas limitaciones en la misma respecto a la información que devuelve el programa a nivel local y que no permite desgranar todo el detalle sobre la ejecución del mismo. Los indicadores y periodos fenológicos que mejor pudieron reproducir la variabilidad espacial del rendimiento en España y Bálticos, arrojaron aún, una mayor credibilidad a los resultados obtenidos y a la eficacia del GWR, ya que estaban en línea con el conocimiento agronómico sobre el cultivo del trigo blando en sistemas agrícolas mediterráneos y norteuropeos. Así, en España, el indicador más robusto fue el balance climático hídrico Climatic Water Balance) acumulado éste, durante el periodo de crecimiento (entre la emergencia y madurez). Aunque se identificó la etapa clave de la floración como el periodo en el que las variables climáticas acumuladas proporcionaban un mayor poder explicativo del modelo GWR. Sin embargo, en los Bálticos, países donde el principal factor limitante en su agricultura es el bajo número de días de crecimiento efectivo, el indicador más efectivo fue la radiación acumulada a lo largo de todo el ciclo de crecimiento (entre la emergencia y madurez). Para el trigo en regadío no existe ninguna combinación que pueda explicar más allá del 30% de la variación del rendimiento en España. Poder demostrar que existe un comportamiento heterogéneo en la relación inter-regional entre el rendimiento y principales variables climáticas, podría contribuir a uno de los mayores desafíos a los que se enfrentan, a día de hoy, los sistemas operacionales de monitoreo y predicción de rendimientos de cultivos, y éste es el de poder reducir la escala espacial de predicción, de un nivel nacional a otro regional. ABSTRACT This thesis explores geostatistical techniques and their contribution to a better characterization of the relationship between climate factors and agricultural crop yields. The crucial link between climate variability and crop production plays a key role in climate change research as well as in crops modelling towards the future global production scenarios. This information is particularly important for monitoring and forecasting operational crop systems. These geostatistical techniques are currently one of the most fundamental operational systems on which global agriculture and food security rely on; with the final aim of providing neutral and reliable information for food market controls, thus avoiding financial speculation of nourishments of primary necessity. Within this context the present thesis aims to provide an alternative approach to the existing body of research examining the relationship between inter-annual climate and production. Therefore, the temporal dimension was replaced for the spatial dimension, re-orienting the statistical analysis of the inter-annual relationship between crops yields and climate factors to an inter-regional correlation between these two variables. Geographically weighted regression, which is a relatively new statistical technique and which has rarely been used in previous research on this topic was used in the current study. Continuous surface values of the climate accumulated variables in specific phenological periods were obtained. These specific periods were selected because they are key factors in the development of vegetative crop. Therefore, the first part of this thesis presents an exploratory analysis regarding the comparability of spatial interpolation methods (SIM) among diverse SIMs and alternative geostatistical methodologies. Given the premise that spatial variability of the relationship between climate factors and crop production exists, the primary aim of this thesis was to examine the extent to which the SIM and other geostatistical methods of local regression (which are integrated tools of the GIS software) are useful in relating crop production and climate variables. The usefulness of these methods was examined in two ways; on one hand the way this information could help to achieve higher production of the white wheat binomial (Triticum aestivum L.) by incorporating the spatial component in the examination of the above-mentioned relationship. On the other hand, the way it helps with the characterization of the key limiting climate factors of soft wheat growth which were analysed in four phenological periods. To achieve this aim, an important operational workload of this thesis consisted in the homogenization and obtention of comparable phenological and climate data, as well as agricultural statistics, which made heavy operational demands. For Spain and the Baltic countries, data on precipitation, maximum and minimum temperature, evapotranspiration and solar radiation from the available meteorological stations were gathered and calculated. A temporal serial approach was taken. These temporal series aligned with the years that agriculture statistics had previously gathered, these being 14 years from 2000 to 2013 (until 2011 for the Baltic countries). This temporal series was mapped with a phenological 25 km grid that had the location of the meteorological stations with the objective of obtaining the phenological values in each of the available stations. Following this procedure, the daily accumulated climate values for each of the four selected phenological periods were calculated; namely P1 (complete cycle), P2 (emergency-maturity), P3 (flowering) and P4 (flowering- maturity). The interpolated surface was then calculated using the set of selected methodologies for the comparison: deterministic conventional techniques, ordinary kriging and ordinary cokriging weighted by height. Once the most effective methods had been selected, the level of the interpolated climate variables was calculated. Local GWR regressions were calculated to quantify, examine and model the spatial relationships between soft wheat production and the accumulated variables in each of the four selected phenological periods. Results from the comparison among the SIMs revealed that no particular technique seems more favourable in terms of accuracy of prediction. However, when the three quality indicators of the compared SIMs are considered, some methodologies appeared to be more efficient than others. Regarding precipitation results, cokriging was the most accurate geostatistical technique for the majority of the cases. Deterministic interpolation in its radial function (controlled spline) was the most accurate technique for describing the accumulated precipitation surface in all phenological periods. However, results are more heterogeneous for the evapotranspiration and radiation methodologies. The most appropriate technique for these forecasts are the Inverse Distance Weighting (IDW), weighted IDW by height and the Ordinary Kriging (OK). Furthermore, it was found that for the majority of the cases where the Ordinary CoKriging (COK) error was larger than that of the OK, its efficacy was comparable to that of the OK in terms of error while the computational demands of the latter was much lower. The existing spatial inter-regional variability between climate factors and soft wheat production was confirmed for both Spain and the Baltic countries. The GWR statistic tool reproduced this variability with an outcome significative enough as to be considered a valid tool for future studies. Nevertheless, this tool also had some limitations with regards to the information delivered by the programme because it did not allow for a detailed break-down of its procedure. The indicators and phenological periods that best reproduced the spatial variability of yields in Spain and the Baltic countries made the results and the efficiency of the GWR statistical tool even more reliable, despite the fact that these were already aligned with the agricultural knowledge about soft wheat crop under mediterranean and northeuropean agricultural systems. Thus, for Spain, the most robust indicator was the Climatic Water Balance outcome accumulated throughout the growing period (between emergency and maturity). Although the flowering period was the phase that best explained the accumulated climate variables in the GWR model. For the Baltic countries where the main limiting agricultural factor is the number of days of effective growth, the most effective indicator was the accumulated radiation throughout the entire growing cycle (between emergency and maturity). For the irrigated soft wheat there was no combination capable of explaining above the 30% of variation of the production in Spain. The fact that the pattern of the inter-regional relationship between the crop production and key climate variables is heterogeneous within a country could contribute to one is one of the greatest challenges that the monitoring and forecasting operational systems for crop production face nowadays. The present findings suggest that the solution may lay in downscaling the spatial target scale from a national to a regional level.
Resumo:
En la presente tesis desarrollamos una estrategia para la simulación numérica del comportamiento mecánico de la aorta humana usando modelos de elementos finitos no lineales. Prestamos especial atención a tres aspectos claves relacionados con la biomecánica de los tejidos blandos. Primero, el análisis del comportamiento anisótropo característico de los tejidos blandos debido a las familias de fibras de colágeno. Segundo, el análisis del ablandamiento presentado por los vasos sanguíneos cuando estos soportan cargas fuera del rango de funcionamiento fisiológico. Y finalmente, la inclusión de las tensiones residuales en las simulaciones en concordancia con el experimento de apertura de ángulo. El análisis del daño se aborda mediante dos aproximaciones diferentes. En la primera aproximación se presenta una formulación de daño local con regularización. Esta formulación tiene dos ingredientes principales. Por una parte, usa los principios de la teoría de la fisura difusa para garantizar la objetividad de los resultados con diferentes mallas. Por otra parte, usa el modelo bidimensional de Hodge-Petruska para describir el comportamiento mesoscópico de los fibriles. Partiendo de este modelo mesoscópico, las propiedades macroscópicas de las fibras de colágeno son obtenidas a través de un proceso de homogenización. En la segunda aproximación se presenta un modelo de daño no-local enriquecido con el gradiente de la variable de daño. El modelo se construye a partir del enriquecimiento de la función de energía con un término que contiene el gradiente material de la variable de daño no-local. La inclusión de este término asegura una regularización implícita de la implementación por elementos finitos, dando lugar a resultados de las simulaciones que no dependen de la malla. La aplicabilidad de este último modelo a problemas de biomecánica se estudia por medio de una simulación de un procedimiento quirúrgico típico conocido como angioplastia de balón. In the present thesis we develop a framework for the numerical simulation of the mechanical behaviour of the human aorta using non-linear finite element models. Special attention is paid to three key aspects related to the biomechanics of soft tissues. First, the modelling of the characteristic anisotropic behaviour of the softue due to the collagen fibre families. Secondly, the modelling of damage-related softening that blood vessels exhibit when subjected to loads beyond their physiological range. And finally, the inclusion of the residual stresses in the simulations in accordance with the opening-angle experiment The modelling of damage is addressed with two major and different approaches. In the first approach a continuum local damage formulation with regularisation is presented. This formulation has two principal ingredients. On the one hand, it makes use of the principles of the smeared crack theory to avoid the mesh size dependence of the structural response in softening. On the other hand, it uses a Hodge-Petruska bidimensional model to describe the fibrils as staggered arrays of tropocollagen molecules, and from this mesoscopic model the macroscopic material properties of the collagen fibres are obtained using an homogenisation process. In the second approach a non-local gradient-enhanced damage formulation is introduced. The model is built around the enhancement of the free energy function by means of a term that contains the referential gradient of the non-local damage variable. The inclusion of this term ensures an implicit regularisation of the finite element implementation, yielding mesh-objective results of the simulations. The applicability of the later model to biomechanically-related problems is studied by means of the simulation of a typical surgical procedure, namely, the balloon angioplasty.
Resumo:
El presente trabajo denominado “Modelo simplificado de neumático de automóvil en elementos finitos para análisis transitorio de las estructuras de los vehículos” ha sido elaborado en la cátedra de Transportes de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Su principal objetivo es el modelado y estudio de un neumático mediante el programa de elementos finitos Ansys, con el fin de obtener datos fiables acerca de su comportamiento bajo distintas situaciones. Para ello, en primer lugar se han estudiado los distintos componentes que conforman los neumáticos, poniendo especial énfasis en los materiales, que son de vital importancia para el desarrollo del trabajo. Posteriormente, se ha analizado el fundamento matemático que subyace en los programas comerciales de elementos finitos, adquiriendo una mayor seguridad en el uso de éstos, así como un mejor conocimiento de las limitaciones que presentan. Básicamente, el método matemático de los elementos finitos (MEF) consiste en la discretización de problemas continuos para resolver problemas complejos, algo que por los métodos tradicionales sería inabordable con ese grado de precisión debido a la cantidad de variables manejadas. Es ampliamente utilizado hoy en día, y cada vez más, para resolver problemas de distintas disciplinas de la ingeniería como la Mecánica del Sólido, la Mecánica de Fluidos o el Electromagnetismo. Por otro lado, como los neumáticos son un sistema complejo, el estudio de su comportamiento ha supuesto y supone un desafío importante tanto para los propios fabricantes, como para las marcas de vehículos y, en el ámbito de este proyecto, para el equipo Upm Racing. En este Trabajo Fin de Grado se han investigado los distintos modelos de neumático que existen, los cuales según su fundamento matemático pueden ser clasificados en: - Modelos analíticos - Modelos empíricos - Modelos de elementos finitos Con la intención de desarrollar un modelo novedoso de elementos finitos, se ha puesto especial hincapié en conocer las distintas posibilidades para el modelizado de neumáticos, revisando una gran cantidad de publicaciones llevadas a cabo en los ámbitos académico y empresarial. Después de toda esta fase introductoria y de recogida de información se ha procedido a la realización del modelo. Éste tiene tres fases claramente diferenciadas que son: - Pre-procesado - Solución - Post-procesado La fase de pre-procesado comprende toda la caracterización del modelo real al modelo matemático. Para ello es necesario definir los materiales, la estructura de los refuerzos, la presión del aire, la llanta o las propiedades del contacto neumático-suelo. Además se lleva a cabo el mallado del modelo, que es la discretización de dicho modelo para después ser resuelto por los algoritmos del programa. Este mallado es sumamente importante puesto que en problemas altamente no-lineales como éste, una malla no adecuada puede dar lugar a conflictos en la resolución de los sistemas de ecuaciones, originando errores en la resolución. Otro aspecto que se ha de incluir en esta fase es la definición de las condiciones de contorno, que son aquellas condiciones impuestas al sistema que definen el estado inicial del éste. Un ejemplo en resolución de estructuras podría ser la imposición de giros y desplazamientos nulos en el extremo de una viga encontrarse empotrado en este punto. La siguiente fase es la de solución del modelo. En ella se aplican las cargas que se desean al sistema. Las principales que se han llevado a cabo han sido: desplazamientos del eje del neumático, rodadura del neumático con aceleración constante y rodadura del neumático con velocidad constante. La última fase es la de post-procesado. En esta etapa se analizan los resultados proporcionados por la resolución con el fin de obtener los datos de comportamiento del neumático que se deseen. Se han estudiado principalmente tres variables que se consideran de suma importancia: - Rigidez radial estática - Características de la huella de contacto - Coeficiente de resistencia a la rodadura Seguidamente, se presentan las conclusiones generales de estos resultados, reflexionando sobre los valores obtenidos, así como sobre los problemas surgidos durante la realización del trabajo. Además, se realiza una valoración de los impactos que puede suponer a nivel económico, social y medioambiental. Por último, se ha elaborado la planificación y presupuesto del proyecto para plasmar los tiempos de trabajo y sus costos. Además, se han propuesto líneas futuras con las que avanzar y/o completar este trabajo.
Resumo:
La estructura económica mundial, con centros de producción y consumo descentralizados y el consiguiente aumento en el tráfico de mercancías en todo el mundo, crea considerables problemas y desafíos para el sector del transporte de mercancías. Esta situación ha llevado al transporte marítimo a convertirse en el modo más económico y más adecuado para el transporte de mercancías a nivel global. De este modo, los puertos marítimos se configuran como nodos de importancia capital en la cadena de suministro al servir como enlace entre dos sistemas de transporte, el marítimo y el terrestre. El aumento de la actividad en los puertos marítimos produce tres efectos indeseables: el aumento de la congestión vial, la falta de espacio abierto en las instalaciones portuarias y un impacto ambiental significativo en los puertos marítimos. Los puertos secos nacen para favorecer la utilización de cada modo de transporte en los segmentos en que resultan más competitivos y para mitigar estos problemas moviendo parte de la actividad en el interior. Además, gracias a la implantación de puertos secos es posible discretizar cada uno de los eslabones de la cadena de transporte, permitiendo que los modos más contaminantes y con menor capacidad de transporte tengan itinerarios lo más cortos posible, o bien, sean utilizados únicamente para el transporte de mercancías de alto valor añadido. Así, los puertos secos se presentan como una oportunidad para fortalecer las soluciones intermodales como parte de una cadena integrada de transporte sostenible, potenciando el transporte de mercancías por ferrocarril. Sin embargo, su potencial no es aprovechado al no existir una metodología de planificación de la ubicación de uso sencillo y resultados claros para la toma de decisiones a partir de los criterios ingenieriles definidos por los técnicos. La decisión de dónde ubicar un puerto seco exige un análisis exhaustivo de toda la cadena logística, con el objetivo de transferir el mayor volumen de tráfico posible a los modos más eficientes desde el punto de vista energético, que son menos perjudiciales para el medio ambiente. Sin embargo, esta decisión también debe garantizar la sostenibilidad de la propia localización. Esta Tesis Doctoral, pretende sentar las bases teóricas para el desarrollo de una herramienta de Herramienta de Ayuda a la Toma de Decisiones que permita establecer la localización más adecuada para la construcción de puertos secos. Este primer paso es el desarrollo de una metodología de evaluación de la sostenibilidad y la calidad de las localizaciones de los puertos secos actuales mediante el uso de las siguientes técnicas: Metodología DELPHI, Redes Bayesianas, Análisis Multicriterio y Sistemas de Información Geográfica. Reconociendo que la determinación de la ubicación más adecuada para situar diversos tipos de instalaciones es un importante problema geográfico, con significativas repercusiones medioambientales, sociales, económicos, locacionales y de accesibilidad territorial, se considera un conjunto de 40 variables (agrupadas en 17 factores y estos, a su vez, en 4 criterios) que permiten evaluar la sostenibilidad de las localizaciones. El Análisis Multicriterio se utiliza como forma de establecer una puntuación a través de un algoritmo de scoring. Este algoritmo se alimenta a través de: 1) unas calificaciones para cada variable extraídas de información geográfica analizada con ArcGIS (Criteria Assessment Score); 2) los pesos de los factores obtenidos a través de un cuestionario DELPHI, una técnica caracterizada por su capacidad para alcanzar consensos en un grupo de expertos de muy diferentes especialidades: logística, sostenibilidad, impacto ambiental, planificación de transportes y geografía; y 3) los pesos de las variables, para lo que se emplean las Redes Bayesianas lo que supone una importante aportación metodológica al tratarse de una novedosa aplicación de esta técnica. Los pesos se obtienen aprovechando la capacidad de clasificación de las Redes Bayesianas, en concreto de una red diseñada con un algoritmo de tipo greedy denominado K2 que permite priorizar cada variable en función de las relaciones que se establecen en el conjunto de variables. La principal ventaja del empleo de esta técnica es la reducción de la arbitrariedad en la fijación de los pesos de la cual suelen adolecer las técnicas de Análisis Multicriterio. Como caso de estudio, se evalúa la sostenibilidad de los 10 puertos secos existentes en España. Los resultados del cuestionario DELPHI revelan una mayor importancia a la hora de buscar la localización de un Puerto Seco en los aspectos tenidos en cuenta en las teorías clásicas de localización industrial, principalmente económicos y de accesibilidad. Sin embargo, no deben perderse de vista el resto de factores, cuestión que se pone de manifiesto a través del cuestionario, dado que ninguno de los factores tiene un peso tan pequeño como para ser despreciado. Por el contrario, los resultados de la aplicación de Redes Bayesianas, muestran una mayor importancia de las variables medioambientales, por lo que la sostenibilidad de las localizaciones exige un gran respeto por el medio natural y el medio urbano en que se encuadra. Por último, la aplicación práctica refleja que la localización de los puertos secos existentes en España en la actualidad presenta una calidad modesta, que parece responder más a decisiones políticas que a criterios técnicos. Por ello, deben emprenderse políticas encaminadas a generar un modelo logístico colaborativo-competitivo en el que se evalúen los diferentes factores tenidos en cuenta en esta investigación. The global economic structure, with its decentralized production and the consequent increase in freight traffic all over the world, creates considerable problems and challenges for the freight transport sector. This situation has led shipping to become the most suitable and cheapest way to transport goods. Thus, ports are configured as nodes with critical importance in the logistics supply chain as a link between two transport systems, sea and land. Increase in activity at seaports is producing three undesirable effects: increasing road congestion, lack of open space in port installations and a significant environmental impact on seaports. These adverse effects can be mitigated by moving part of the activity inland. Implementation of dry ports is a possible solution and would also provide an opportunity to strengthen intermodal solutions as part of an integrated and more sustainable transport chain, acting as a link between road and railway networks. In this sense, implementation of dry ports allows the separation of the links of the transport chain, thus facilitating the shortest possible routes for the lowest capacity and most polluting means of transport. Thus, the decision of where to locate a dry port demands a thorough analysis of the whole logistics supply chain, with the objective of transferring the largest volume of goods possible from road to more energy efficient means of transport, like rail or short-sea shipping, that are less harmful to the environment. However, the decision of where to locate a dry port must also ensure the sustainability of the site. Thus, the main goal of this dissertation is to research the variables influencing the sustainability of dry port location and how this sustainability can be evaluated. With this objective, in this research we present a methodology for assessing the sustainability of locations by the use of Multi-Criteria Decision Analysis (MCDA) and Bayesian Networks (BNs). MCDA is used as a way to establish a scoring, whilst BNs were chosen to eliminate arbitrariness in setting the weightings using a technique that allows us to prioritize each variable according to the relationships established in the set of variables. In order to determine the relationships between all the variables involved in the decision, giving us the importance of each factor and variable, we built a K2 BN algorithm. To obtain the scores of each variable, we used a complete cartography analysed by ArcGIS. Recognising that setting the most appropriate location to place a dry port is a geographical multidisciplinary problem, with significant economic, social and environmental implications, we consider 41 variables (grouped into 17 factors) which respond to this need. As a case of study, the sustainability of all of the 10 existing dry ports in Spain has been evaluated. In this set of logistics platforms, we found that the most important variables for achieving sustainability are those related to environmental protection, so the sustainability of the locations requires a great respect for the natural environment and the urban environment in which they are framed.
Resumo:
El área urbana localizada en el contorno de la ría de Vigo se vino comportando hasta finales de los años ochenta del siglo XX como una verdadera "ciudad difusa", entendida la difusión como la forma de urbanización de baja densidad que todavía conserva unas características y una funcionalidad propiamente urbanas, aportadas por la malla tradicional parroquial de caminos y núcleos de población. Esta Tesis demuestra que en el período de veinte años transcurrido entre 1990 y 2010, el área, en la que ya se apreciaban fenómenos de naturaleza metropolitana y policentrismo, experimentó una transformación basada en los factores y formas de urbanización estudiados en otras áreas y ciudades intermedias de similares dimensiones. Para la delimitación del ámbito de estudio se consideraron las diferentes dimensiones y escalas de áreas funcionales utilizadas en distintos estudios y planes territoriales, eligiéndose el que toma como referente principal la Ría de Vigo como soporte de la conurbación polinuclear de su contorno. Para investigar el desarrollo urbanístico operado en el período se estudiaron los factores y formas de urbanización característicos de la urbanización en territorios de baja densidad en esta época, y las variables de densidad es de población y vivienda, primacía y polaridad territorial, ritmos de edificación, planeamiento urbanístico y territorial, actividades económicas, movilidad, desplazamientos residenciatrabajo y vacíos urbanos. Las conclusiones permiten observar como el crecimiento residencial descentralizado, que se ha dado principalmente en el litoral, y la localización periférica de las actividades y dotaciones públicas han introducido elementos de dispersión y fragmentación espacial y social, así como las nuevas y potentes infraestructuras viarias, que han mejorado los desplazamientos a costa de una dependencia abusiva del vehículo privado, y han comenzado a amenazar la sostenibilidad del sistema. La planificación de ordenación territorial a escala metropolitana y el planeamiento urbanístico, que se comenzaron a utilizar con normalidad en esta época, se vislumbran como una oportunidad para reconducir el proceso, integrando los territorios genéricos surgidos entre las nuevas infraestructuras y dotaciones y la malla tradicional, así como los vacíos urbanos susceptibles de compactación, protegiendo aquellos otros vacíos que deben constituir la principal reserva ecológica: Los montes en mano común y la Ría de Vigo. La necesidad de una planificación operativa, sostenible y participativa, que integre la ordenación territorial, la gestión integral de los recursos de la Ría, y articule las diferentes competencias y escalas, la gobernanza , la participación ciudadana y el mercado, se considera la principal conclusión para el futuro. ABSTRACT The urban area located around the Ría de Vigo* used to behave like a “diffused city” until the late 1980s, understanding this difussion as the low-density urbanization that still today exhibits ‘urban’ characteristics and functionality, given by the traditional network of parish paths and town cores. This Thesis shows that during the twenty-year period from 1990 to 2010, this area, which previously showed signals of polycentrism and metropolitan character, started a transformation based on the factors and ways of urbanization studied in other areas and intermediate cities of similar dimensions. In order to demarcate the scope of this study, different dimensions and functional area scales previously used in other studies have been taken into account, choosing the one that takes the Ría de Vigo as the main reference and the basis of the polynuclear conurbation of its surroundings. To research the urban development in this period, factors and ways of urbanization regarding lowdensity territories have been considered, as well as some variables like density of population and housing, territorial primacy and polarity, building rates, territorial planning, economic activities, mobility, home-to-work trips and urban holes. Conclusions allow us to point out how the decentralised residential growing (that occurred mainly on the litoral surface) and the periferic localization of the activities and public facilities, have created elements of “sprawl” and spacial and social fragmentation, which, together with the new and powerfull road infraestructures network (that made the movements easier by means of an abusive dependence on the private vehicle), have started to threaten the sustainability of the system. The planification of the territorial ordinance at metropolitan scale and the urban planning, that in that time started to be established, can be considered as an opportunity to get things back on track, integrating the territories risen up from the new infrastructures and facilities and the traditional network together with the urban holes liable to be compacted, with a special protection of the spaces that must be the main ecological reserve: the communal forests and the Ría de Vigo. The need of a sustainable and participatory operative planification, able to integrate the territory planning, the integral management of resources and the citizen involvement and the market, has to be considered as the main goal for the future.
Resumo:
Los programas de Gestión Integrada de Plagas (GIP) promueven el uso de estrategias de control que sean respetuosas con el medio ambiente, sin embargo el uso de insecticidas en los cultivos hortícolas sigue siendo necesario para el control de determinadas plagas, como es el caso de la mosca blanca Bemisia tabaci (Gennadius). Por ello, el objetivo de esta tesis es el estudio de la integración de las tres estrategias de control más empleadas hoy en día para el control de plagas: el control biológico, el físico y el químico. Una primera parte de este trabajo ha consistido en el estudio de los efectos letales y subletales de once insecticidas, aplicados a la dosis máxima de campo, sobre los enemigos naturales Eretmocerus mundus Mercet y Amblyseius swirskii Athias-Henriot, mediante ensayos de laboratorio y persistencia (laboratorio extendido). Para la evaluación de la toxicidad de los insecticidas sobre los estados de vida más protegidos de estos enemigos naturales, se trataron bajo la Torre de Potter las pupas de E. mundus y los huevos de A. swirskii. Además, se llevaron a cabo ensayos de contacto residual para determinar los efectos letales y subletales de estos insecticidas sobre el estado adulto de ambas especies de enemigos naturales. Para ello, los pesticidas se aplicaron sobre placas de cristal (laboratorio) o sobre plantas (laboratorio extendido: persistencia). Los resultados mostraron que los insecticidas flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen y spirotetramat eran compatibles con el estado de pupa de E. mundus (OILB 1: Inocuos). Sin embargo, abamectina, deltametrina y emamectina fueron categorizadas como ligeramente tóxicas (OILB 2) al causar efectos deletéreos. Los dos pesticidas más tóxicos fueron spinosad y sulfoxaflor, los cuales redujeron significativamente la emergencia de las pupas tratadas (OILB 4: Tóxicos). Flonicamida, flubendiamida, metoxifenocida y spiromesifen fueron compatibles con el estado adulto de E. mundus (OILB 1: Inocuos). Abamectina, deltametrina, emamectina, metaflumizona y spiromesifen pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Al contrario, spinosad y sulfoxaflor no resultaron ser compatibles (OILB D: Persistentes), aunque la realización de ensayos adicionales es necesaria para ver los efectos de los mismos en campo. Todos los insecticidas estudiados, excepto el spirotetramat (OILB 2: Ligeramente tóxico), fueron selectivos para el estado de huevo de A. swirskii (OILB 1: Inocuos). Flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen, spirotetramat y sulfoxaflor, fueron compatibles con el estado adulto de A. swirskii (OILB 1: Inocuos). Abamectina, deltametrina, emamectina y spinosad pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Entre las nuevas estrategias de la GIP, los plásticos y mallas fotoselectivas han demostrado ser una herramienta importante para el control de plagas y enfermedades en cultivos hortícolas protegidos. Por ello, en una segunda parte de este trabajo, se estudiaron tanto los efectos directos, como la combinación de efectos directos y mediados por planta y plaga de ambientes pobres en luz UV, en presencia o ausencia del Virus del rizado amarillo del tomate (TYLCV), sobre E. mundus. En primer lugar, se realizó un ensayo al aire libre para la evaluación de la capacidad de vuelo de E. mundus en cajas tipo túnel (1 x 0,6 x 0,6 m) cubiertas con distintas barreras absorbentes de luz UV. Se detectó un efecto directo en la capacidad de orientación de E. mundus, debido a que este parasitoide utiliza estímulos visuales para localizar a sus huéspedes, únicamente en las barreras que bloqueaban más del 65% de la luz UV (malla G). En segundo lugar, bajo condiciones de invernadero, se evaluó la combinación de efectos directos y mediados por planta y plaga sobre E. mundus, usando plantas de tomate sanas o infectadas con el TYLCV y cajas (30 x 30 x 60 cm) cubiertas con los distintos plásticos fotoselectivos. En este caso, no se observó ningún efecto en la capacidad benéfica del parasitoide cuando este estaba en contacto con plantas de tomate infestadas con ninfas de B. tabaci, lo que demuestra que este insecto usa estímulos táctiles para encontrar a sus huéspedes a cortas distancias. Además, las diferentes condiciones de radiación UV estudiadas tuvieron cierto impacto en la morfología, fisiología y bioquímica de las plantas de tomate, infestadas o no con el virus de la cuchara, detectándose pequeñas alteraciones en alguno de los parámetros estudiados, como el peso fresco y seco, el contenido en H y el espesor de las cutículas y de las paredes celulares de la epidermis foliar. Por último, no se observaron efectos de la radiación UV mediados por planta, ni en B. tabaci ni en su parasitoide, E. mundus. En una tercera parte, se evaluaron los efectos de una malla tratada con bifentrin sobre ambos enemigos naturales, en ensayos de laboratorio, semicampo y campo. Las mallas tratadas fueron diseñadas originariamente para el control de mosquitos vectores de la malaria, y actualmente se está trabajando para su uso en agricultura, como una nueva estrategia de control de plagas. En ensayos de laboratorio, cuando adultos de E. mundus y A. swirskii se expusieron por contacto durante 72 horas con la malla tratada (cajas de 6 cm diámetro), se registró una alta mortalidad. Sin embargo, en el ensayo de preferencia, estos enemigos naturales no fueron capaces de detectar la presencia de bifentrin y, en aquellos individuos forzados a atravesar la malla tratada, no se observó mortalidad a corto plazo (72 horas). En estudios de semicampo, llevados a cabo bajo condiciones de invernadero en cajas de 25 x 25 x 60 cm de altura, la capacidad benéfica de E. mundus no se vio afectada. Finalmente, en ensayos de campo llevados a cabo en invernaderos comerciales (4000m2) en Almería, A. swirskii no se vio afectado por la presencia en el cultivo de la malla tratada con bifentrin y los niveles de infestación de B. tabaci y F. occidentalis detectados bajo dicha malla, fueron inferiores a los del control. Por último, se ha evaluado la composición de la microflora bacteriana de tres especies de parasitoides, E. mundus, Eretmocerus eremicus Rose & Zolnerowich y Encarsia formosa Gahan, y la influencia de la misma en su susceptibilidad a insecticidas. Se llevó a cabo una extracción total de ADN de los insectos y la región variable V4 del ARNr se amplificó usando cebadores universales bacterianos. Para identificar las secuencias de los géneros bacterianos presentes en los parasitoides, se realizó una Next Generation sequencing (Illumina sequencing). Una vez identificados los géneros bacterianos, el gen ADNr 16S de las Actinobacterias se amplificó del ADN extraído de los insectos, usando cebadores universales bacterianos y específicos de Actinobacterias, y los productos de la Nested PCR fueron clonados para identificar todas las especies del género Arthrobacter. Tres bacterias (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi y A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), próximas a las especies de Arthrobacter presentes en los parasitoides, se obtuvieron de la colección bacteriana del BCCMTM/LMG y se midió su actividad esterasa. Finalmente, se realizaron ensayos con antibióticos (tetraciclina) y de contacto residual con insecticidas (abamectina) para determinar la influencia de las especies de Arthrobacter en la susceptibilidad de E. mundus a insecticidas. Los resultados muestran que este género bacteriano puede afectar a la toxicidad de E. mundus a abamectina, mostrando la importancia de la comunidad microbiana en enemigos naturales, factor que debe ser considerado en los estudios de evaluación de los riesgos de los insecticidas. ABSTRACT Integrated Pest Management (IPM) programs promote the use of control strategies more respectful with the environment; however the use of insecticides in vegetable crops is still needed to control certain pests, such as the whitefly Bemisia tabaci (Gennadius). Therefore, the objective of this work is to study the integration of the three most commonly used pest control strategies nowadays: biological, physical and chemical control. Firstly, the lethal and sublethal effects of eleven insecticides, applied at their maximum field recommended concentration, on the parasitic wasp Eretmocerus mundus Mercet and the predator Amblyseius swirskii Athias-Henriot has been assessed in the laboratory and in persistence tests (extended laboratory). To test the effects of pesticides on the most protected life stage of these natural enemies, E. mundus pupae and A. swirskii eggs were sprayed under a Potter precision spray tower. Laboratory contact tests were therefore conducted to determine the lethal and sublethal effects of these pesticides on the adult stage of these natural enemies. In the residual contact tests the pesticides were applied on glass plates (laboratory) or plants (extended laboratory: persistence). The study showed that the insecticides flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen and spirotetramat were selective for E. mundus pupae (IOBC 1: Harmless). Nevertheless, abamectin, deltamethrin and emamectin were categorized as slightly harmful (IOBC 2) due to the deleterious effects caused. The two most harmful pesticides were spinosad and sulfoxaflor, which significantly reduced the adult emergence from treated pupae (IOBC 4: Harmful). Flonicamid, flubendiamide, methoxyfenozide and spiromesifen were compatible with E. mundus adults (IOBC 1: Harmless). Base on the duration of the harmful activity, abamectin, deltamethrin, emamectin, metaflumizone and spirotetramat could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. On the contrary, spinosad and sulfoxaflor were not compatible (IOBC D: persistent), although additional studies are required to determine their effects under field conditions. All the pesticides tested, except spirotetramat (IOBC 2: Slightly harmful), were selective for A. swirskii eggs (IOBC 1: Harmless). Flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen, spirotetramat and sulfoxaflor were compatible with A. swirskii adults (IOBC 1: Harmless). However, abamectin, deltamethrin, emamectin and spinosad could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. Among new IPM strategies, UV-absorbing photoselective plastic films and nets have been shown to be an important tool for the control of pests and diseases in horticultural protected crops. Because of that, we secondly studied the plant and pest insect-mediated and/or the direct effects on E. mundus under different UV radiation conditions, in presence or absence of the Tomato Yellow Leaf Curl Virus (TYLCV). In the first experiment, performed outdoors, the flight activity of E. mundus was studied in one-chamber tunnels (1 x 0.6 x 0.6 m) covered with different photoselective barriers. Because E. mundus uses visual cues for host location at a long distance, a direct effect on its host location ability was detected, but only in the UV-absorbing barriers blocking more than 65% of the UV light (G net). In a second experiment, the direct and plant and pest insect-mediated effects of different UV radiation conditions on E. mundus were studied, inside cages (30 x 30 x 60 cm) covered with the different UVplastic films and under greenhouse conditions, using healthy or TYLCV-virus infected tomato plants. In this case, not any effect on the beneficial capacity of this parasitoid was detected, proving that he uses tactile cues at a short distance of the host. Moreover, the different UV radiation conditions studied had a certain direct impact in the morphology, physiology and biochemistry of tomato plants infested or not with the TYLCV, and small alterations in some parameters such as fresh and dry weight, H percentage and cuticle and cell wall thickness of epidermal cells of the leaves, were detected. Finally, none plant-mediated UV effects neither in the whitefly B. tabaci nor in their parasitic wasp were found. Thirdly, the effects of a bifenthrin treated net were evaluated in different laboratory, semi-field and field experiments on the natural enemies studied. Treated nets were developed long time ago aiming at the control of the mosquitoes vectors of malaria, and nowadays, there is a great interest on assessing the possibility of their use in agriculture. In laboratory assays, a high mortality was recorded when E. mundus and A. swirskii adults were exposed by contact to the bifenthrin treated net for 72 hours in small cages (12 cm diameter). However, these natural enemies were not able to detect the presence of bifenthrin in a dual-choice test and no short-term mortality (72 hours) was recorded in those individuals that went through the treated net. In semi-field assays, performed under greenhouse conditions with cages of 25 x 25 x 60 cm high, the beneficial capacity of E. mundus was not affected. Finally, in field assays carried out in commercial multispan greenhouses (4000 m2) in Almería, A. swirskii was not affected by the presence of the bifenthrin treated net in the crop and the B. tabaci and F. occidentalis infestation levels were significantly lower than in the control. Finally, the composition of the microflora present in three species of parasitoids, E. mundus, Eretmocerus eremicus Rose & Zolnerowich and Encarsia formosa Gahan, and its influence in their susceptibility to insecticides, have been assessed. A total DNA extraction was performed on insects and universal bacterial primers were used to amplify the variable V4 region of the rRNA. A Next Generation sequencing (Illumina sequencing) was performed to identify the sequences of the bacterial genera present in the parasitic wasps. Once, the bacterial genera were identified, 16S rDNA gene of Actinobacteria were amplified from insects DNA extracts using the universal bacterial and actinobacterial primers, and the nested PCR products, were cloned to identify the Arthrobacter species. Three bacteria (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi and A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), having the closest match with the Arthrobacter species present in the parasitic wasps, were obtained from the BCCMTM/LMG bacteria collection and its esterase activity was measured. Finally, antibiotic and residual contact tests were done to determine the influence of Arthrobacter species in the susceptibility of E. mundus to pesticides (abamectin). The results suggest that this bacterial genus can affect the toxicity of E. mundus to abamectin, which in turn supports the importance of the microbial community in natural enemies that it should be considered as a factor in risk assessment tests of pesticides.
Resumo:
In this work a p-adaptation (modification of the polynomial order) strategy based on the minimization of the truncation error is developed for high order discontinuous Galerkin methods. The truncation error is approximated by means of a truncation error estimation procedure and enables the identification of mesh regions that require adaptation. Three truncation error estimation approaches are developed and termed a posteriori, quasi-a priori and quasi-a priori corrected. Fine solutions, which are obtained by enriching the polynomial order, are required to solve the numerical problem with adequate accuracy. For the three truncation error estimation methods the former needs time converged solutions, while the last two rely on non-converged solutions, which lead to faster computations. Based on these truncation error estimation methods, algorithms for mesh adaptation were designed and tested. Firstly, an isotropic adaptation approach is presented, which leads to equally distributed polynomial orders in different coordinate directions. This first implementation is improved by incorporating a method to extrapolate the truncation error. This results in a significant reduction of computational cost. Secondly, the employed high order method permits the spatial decoupling of the estimated errors and enables anisotropic p-adaptation. The incorporation of anisotropic features leads to meshes with different polynomial orders in the different coordinate directions such that flow-features related to the geometry are resolved in a better manner. These adaptations result in a significant reduction of degrees of freedom and computational cost, while the amount of improvement depends on the test-case. Finally, this anisotropic approach is extended by using error extrapolation which leads to an even higher reduction in computational cost. These strategies are verified and compared in terms of accuracy and computational cost for the Euler and the compressible Navier-Stokes equations. The main result is that the two quasi-a priori methods achieve a significant reduction in computational cost when compared to a uniform polynomial enrichment. Namely, for a viscous boundary layer flow, we obtain a speedup of a factor of 6.6 and 7.6 for the quasi-a priori and quasi-a priori corrected approaches, respectively. RESUMEN En este trabajo se ha desarrollado una estrategia de adaptación-p (modificación del orden polinómico) para métodos Galerkin discontinuo de alto orden basada en la minimización del error de truncación. El error de truncación se estima utilizando el método tau-estimation. El estimador permite la identificación de zonas de la malla que requieren adaptación. Se distinguen tres técnicas de estimación: a posteriori, quasi a priori y quasi a priori con correción. Todas las estrategias requieren una solución obtenida en una malla fina, la cual es obtenida aumentando de manera uniforme el orden polinómico. Sin embargo, mientras que el primero requiere que esta solución esté convergida temporalmente, el resto utiliza soluciones no convergidas, lo que se traduce en un menor coste computacional. En este trabajo se han diseñado y probado algoritmos de adaptación de malla basados en métodos tau-estimation. En primer lugar, se presenta un algoritmo de adaptacin isótropo, que conduce a discretizaciones con el mismo orden polinómico en todas las direcciones espaciales. Esta primera implementación se mejora incluyendo un método para extrapolar el error de truncación. Esto resulta en una reducción significativa del coste computacional. En segundo lugar, el método de alto orden permite el desacoplamiento espacial de los errores estimados, permitiendo la adaptación anisotropica. Las mallas obtenidas mediante esta técnica tienen distintos órdenes polinómicos en cada una de las direcciones espaciales. La malla final tiene una distribución óptima de órdenes polinómicos, los cuales guardan relación con las características del flujo que, a su vez, depenen de la geometría. Estas técnicas de adaptación reducen de manera significativa los grados de libertad y el coste computacional. Por último, esta aproximación anisotropica se extiende usando extrapolación del error de truncación, lo que conlleva un coste computational aún menor. Las estrategias se verifican y se comparan en téminors de precisión y coste computacional utilizando las ecuaciones de Euler y Navier Stokes. Los dos métodos quasi a priori consiguen una reducción significativa del coste computacional en comparación con aumento uniforme del orden polinómico. En concreto, para una capa límite viscosa, obtenemos una mejora en tiempo de computación de 6.6 y 7.6 respectivamente, para las aproximaciones quasi-a priori y quasi-a priori con corrección.
Resumo:
La formación de postgrado en ingeniería es muy importante para mejorar la competitividad y lograr el desarrollo en los países. Para ello es necesaria una fuerte vinculación de la universidad con su entorno socio económico de modo que los objetivos que se plantea en sus programas formativos sean coherentes con las necesidades reales de los beneficiarios: los estudiantes, la universidad y la comunidad. Es decir, los programas deben ser pertinentes. Y en los países en vías de desarrollo este tema es aún más importante. Se necesita modelos de evaluación que midan este grado de adecuación entre los objetivos de los programas con las necesidades de los estudiantes y las partes interesadas. Sin embargo, los modelos de evaluación existentes tienen principalmente fines de acreditación y están diseñados para evaluar la eficacia, es decir si los resultados obtenidos están de acuerdo con la misión y los objetivos planteados. Su objetivo no es medir la pertinencia. Esta investigación tiene como objetivo diseñar un modelo de evaluación de la pertinencia de maestrías en ingeniería y aplicarlo a un caso concreto. Se trata de maestrías que ya están en funcionamiento y son dictadas en una universidad en un país en desarrollo. Para diseñar el modelo se define primero el concepto de pertinencia de una maestría en ingeniería haciendo una revisión bibliográfica y consultando a expertos en los temas de pertinencia de la educación superior y formación en postgrado en ingeniería. Se utiliza una definición operativa que facilita luego la identificación de factores e indicadores de evaluación. Se identifica dos tipos de pertinencia: local y global. La pertinencia global está relacionada con la inserción de la maestría en el sistema global de producción de conocimiento. La pertinencia local tiene tres dimensiones: la personal, relacionada con la satisfacción de necesidades de los estudiantes, la institucional, relacionada con las necesidades e intereses de la universidad que acoge a la maestría y la pertinencia social, ligada a la satisfacción de necesidades y demandas de la comunidad local y nacional. El modelo diseñado es aplicado en la maestría en Ingeniería Civil con mención en Ingeniería Vial de la Universidad de Piura, Perú lo que permite obtener conclusiones para su aplicación en otras maestrías. ABSTRACT Graduate engineering education is very important to improve competitiveness and achieve development in countries. It is necessary a strong linkage between university and its socio economic environment, so that programs objectives are consistent with the real needs of the students, university and community. That is to say programs must be relevant. And in developing countries this issue is very important. Evaluation models to measure the degree of adequacy between the programs objectives with the needs of students and stakeholders is needed. However, existing evaluation models have mainly the purpose of accreditation and are designed to evaluate the efficacy. They evaluate if the results are consistent with the mission and objectives. Their goal is not to measure the relevance. This work aimed to design a model for evaluating the relevance of master's degrees in engineering and applied to a specific case. They must be masters already in operation and are taught at a university in a developing country. In order to build the model, first concept of relevance of a master's degree in engineering was defined. Literature was reviewed and we consulted experts on issues of relevance of higher education and graduate engineering education. An operational definition is used to facilitate the identification of factors and evaluation indicators. Local and global: two types of relevance were identified. The global relevance is related to the inclusion of Master in the global system of knowledge production. The local relevance has three dimensions: personal, related to meeting students' needs, institutional, related to the needs and interests of university that houses the Master and social relevance, linked to the satisfaction of needs and demands of local and national community. The designed model is applied to the Master degree in Civil Engineering with a major in Traffic Engineering of Universidad de Piura, Peru which allowed to obtain conclusions for application in other masters.
Resumo:
La consolidación y restauración de elementos existentes en la fachada norte del antiguo edificio del Senado de España se ha basado en el reanclado de las molduras macizas del recercado de huecos y de las molduras huecas de cornisas, ambas de piedra artificial, con varillas de poliéster reforzado con fibra de vidrio; en la eliminación del revoco existente y la realización de uno nuevo en dos capas, armando con malla de fibra de vidrio la capa base de cal hidráulica previamente a la aplicación de la capa de terminación de cal aérea; en la apertura de juntas de retracción selladas con silicona neutra, tanto de las molduras como del revoco, y en la cobertura de las superficies horizontales de los elementos salientes con chapa de zinc (molduras, guardapolvos y vierteaguas). Se exponen los estudios previos con los resultados de la documentación histórica, el análisis de los materiales y el diagnóstico de las lesiones que sustentan la intervención.