954 resultados para Exceed


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En general, la distribución de una flota de vehículos que recorre rutas fijas no se realiza completamente en base a criterios objetivos, primando otros aspectos más difícilmente cuantificables. El análisis apropiado debería tener en consideración la variabilidad existente entre las diferentes rutas dentro de una misma ciudad para así determinar qué tecnología es la que mejor se adapta a las características de cada itinerario. Este trabajo presenta una metodología para optimizar la asignación de una flota de vehículos a sus rutas, consiguiendo reducir el consumo y las emisiones contaminantes. El método propuesto está organizado según el siguiente procedimiento: - Registro de las características cinemáticas de los vehículos que recorren un conjunto representativo de rutas. - Agrupamiento de las líneas en conglomerados de líneas similares empleando un algoritmo jerárquico que optimice el índice de semejanza entre rutas obtenido mediante contraste de hipótesis de las variables representativas. - Generación de un ciclo cinemático específico para cada conglomerado. - Tipificación de variables macroscópicas que faciliten la clasificación de las restantes líneas utilizando una red neuronal entrenada con la información recopilada en las rutas medidas. - Conocimiento de las características de la flota disponible. - Disponibilidad de un modelo que estime, según la tecnología del vehículo, el consumo y las emisiones asociados a las variables cinemáticas de los ciclos. - Desarrollo de un algoritmo de reasignación de vehículos que optimice una función objetivo dependiente de las emisiones. En el proceso de optimización de la flota se plantean dos escenarios de gran trascendencia en la evaluación ambiental, consistentes en minimizar la emisión de dióxido de carbono y su impacto como gas de efecto invernadero (GEI), y alternativamente, la producción de nitróxidos, por su influencia en la lluvia ácida y en la formación de ozono troposférico en núcleos urbanos. Además, en ambos supuestos se introducen en el problema restricciones adicionales para evitar que las emisiones de las restantes sustancias superen los valores estipulados según la organización de la flota actualmente realizada por el operador. La metodología ha sido aplicada en 160 líneas de autobús de la EMT de Madrid, conociéndose los datos cinemáticos de 25 rutas. Los resultados indican que, en ambos supuestos, es factible obtener una redistribución de la flota que consiga reducir significativamente la mayoría de las sustancias contaminantes, evitando que, en contraprestación, aumente la emisión de cualquier otro contaminante. ABSTRACT In general, the distribution of a fleet of vehicles that travel fixed routes is not usually implemented on the basis of objective criteria, thus prioritizing on other features that are more difficult to quantify. The appropriate analysis should consider the existing variability amongst the different routes within the city in order to determine which technology adapts better to the peculiarities of each itinerary. This study proposes a methodology to optimize the allocation of a fleet of vehicles to the routes in order to reduce fuel consumption and pollutant emissions. The suggested method is structured in accordance with the following procedure: - Recording of the kinematic characteristics of the vehicles that travel a representative set of routes. - Grouping of the lines in clusters of similar routes by utilizing a hierarchical algorithm that optimizes the similarity index between routes, which has been previously obtained by means of hypothesis contrast based on a set of representative variables. - Construction of a specific kinematic cycle to represent each cluster of routes. - Designation of macroscopic variables that allow the classification of the remaining lines using a neural network trained with the information gathered from a sample of routes. - Identification and comprehension of the operational characteristics of the existing fleet. - Availability of a model that evaluates, in accordance with the technology of the vehicle, the fuel consumption and the emissions related with the kinematic variables of the cycles. - Development of an algorithm for the relocation of the vehicle fleet by optimizing an objective function which relies on the values of the pollutant emissions. Two scenarios having great relevance in environmental evaluation are assessed during the optimization process of the fleet, these consisting in minimizing carbon dioxide emissions due to its impact as greenhouse gas (GHG), and alternatively, the production of nitroxides for their influence on acid rain and in the formation of tropospheric ozone in urban areas. Furthermore, additional restrictions are introduced in both assumptions in order to prevent that emission levels for the remaining substances exceed the stipulated values for the actual fleet organization implemented by the system operator. The methodology has been applied in 160 bus lines of the EMT of Madrid, for which kinematic information is known for a sample consisting of 25 routes. The results show that, in both circumstances, it is feasible to obtain a redistribution of the fleet that significantly reduces the emissions for the majority of the pollutant substances, while preventing an alternative increase in the emission level of any other contaminant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque las primeras fábricas de tubos de poliéster reforzado con fibra de vidrio en España datan del año 1984, no es sino hasta el año 1996 cuando se comienza su utilización masiva como un sustituto de las tuberías de fribrocemento, que ya habían sido prohibidas por la legislación, debido a los efectos cancerígenos de este material. Desde entonces se ha prodigado la utilización de todas las diferentes tipologías de esta clase de tubería, de conformidad a los procesos de fabricación empleados que se encuentran recopilados en el AWWA Manual M45 (Fiberglass Pipe Design), obteniéndose muy diversos resultados. Durante estos años, ha surgido una creciente preocupación en los usuarios de este tipo de tuberías dadas las continuas y numerosas averías en todo el ámbito geográfico. Esto ha promovido el desarrollo de la presente investigaicón, que se ha dividido en dos partes y que ha concluido con la determinación de un nuevo mecanismo específico de fractura. La primera parte se centró en la obtención y desarrollo del modelo teórico que hemos venido a denominar como "Teoría de la Caja Mecánicamente Contaminada", y que está basado en la contaminación o separación por un impacto de dos de las tres capas que forman la tubería, la capa intermedia de arena y la capa más interna o "inner layer". La consecuencia es la disminución del canto resistente, la rotura del inner layer y la entrada de fluido a la capa de arena. Para la evaluación de la magnitud de esta separación se ha desarrollado un modelo analítico que ha determinado la existencia de una relación cuadrática que la rige, y que ha sido verificado mediante ensayos de impacto sobre probetas de tuberías, alcanzando ajustes de hasta el 92%. Así, se ha determinado que impactos de muy baja intensidad, del entorno de 90 a 160 Julios en tuberías Filament Winding continuo PN 16-20 (de 800 a 1000mm) pueden comprometer seriamente la integridad estructural de la tubería sin dejar, en un principio, muesca o traza alguna que pueda alertar del problema. Los siguientes pasos en el estudio se dirigieron a determinar qué otros mecanismos, aparte del golpe, podrían contaminar la tubería y a estudiar el consiguiente avance de la fractura a las capas externas. Se trataba además de analizar la aparición en el tubo de unas misteriosas manchas en forma de "piel de leopardo" y de otros fenómenos aparecidos en las averías como que algunas de las deformaciones de la rotura por presión interna son hacia el interior del tubo y no al revés, como habría sido de esperar a priori. Se optó entonces por comenzar la que ha constituido la segunda parte de la investigación. Para ello se recurrió a realizar ensayos hidráulicos en banco de pruebas a alta presión, cuyos resultados fueron sorprendentes al descubrir que en el proceso se producía la hidrólisis de la resina de poliéster no catalizada que fluía hacia el exterior del tubo. Como consecuencia se llevaron a cabo nuevos ensayos físicos y químicos para estudiar la migración del material y la hidrólisis producida en el proceso de fractura. En este estudio, resultó muy relevante el hecho de sobrepasar o no la presión que producía el desagarro entre las capas del tubo. En definitiva, en esta investigación, que ha constado de estudios analíticos y estudios experimentales, químicos y numéricos, se ha determinado un nuevo mecanismo de fractura que explica gran parte de los fallos acontecidos en las tuberías de poliéster reforzado con fibra de vidrio. Como aplicación se exponen recomendaciones para mejorar el comportamiento mecánico de esta tipología y evitar así los sobrecostes millonarios producidos por su reposición. Numerous and continuous failures in fiberglass reinforced polyester pipes of different companies and manufacturing processes of the AWWA Manual M45 (Fiberglass Pipe Design), have prompted the development of this research, that has concluded with a specific mechanism describing pipe fractures. This research was carried out via two independent studies. The first one is the development of the hypothesis that turned into the Mechanically Contaminated Layer Theory. This theory describes the fracture mchanism which explains a significant part of massive failures due to the existence of a sand layer placed near the neutral axis in the core making the composite very sensitive to impacts in fibreglass reinforced polyester pipes. These failures create interface delamination and consequently fluid can leak into supporting sand backfill thereby iniating the fracture process. In order to assess the delimination magnitude, an analytic method is developed and a squared root law between delamination and energy applied proposed. Vertical blunt ram testts on samples extracted from complete pipes have been carried out to verify this theory, reaching a goodness of fit up to 92%. It is concluded that low energy impacts, around 90-160J in 800-1000mm diameter PN 16-20 continuous filament winding pipes, can seriously compromise their structural integraty with no external trace. The next step in the study was to determine what other mechanism, apart from the brittle hit, could contaminate the pipe and to analyse the consequente advance of the fracture to the external layers. Another aim was to analyse two phenomena occurred in real pipe failures. The first one is the appearance on the tube of "leopard fur" stains on some of the analysed failures, and the other phenomenon is the "inverse fracture", in which the deformations of the failure due to internal pressure are towards the inside of the tube and not the other way round, as it would be expected. It was then chosen to follow a new branch of the investigation by hydraulic high-pressure bench tests that study seepage and load transmission. The results were very surprising as it was discovered that in the process, hydrolysis of the non-catalysed polyester resin occured, flowing towards the outer of the pipe, which entailed the development of chemical and physical tests of the exuded material to study material migration and hydrolysis of the fracture process. In this particular study it was relevant to exceed or not the pressure that produced the rip between the layers of the tube. In conclusion, a new breakage mechanism in FRP pies with sand-filled layer has been found, which explains a high part of the failure global cases. The whole failure process is justified by the Mechanically Contaminated Layer Theory, which has been corroborated by means of analytical, numerical and experimental studies. Several recommendations are also provided in order to improve the mechanical behaviour of this typology and avoid the millionaire overruns generated by its massive failures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pseudo-total (i.e. aqua regia extractable) and gastric-bioaccessible (i.e. glycine + HCl extractable) concentrations of Ca, Co, Cr, Cu, Fe, Mn, Ni, Pb and Zn were determined in a total of 48 samples collected from six community urban gardens of different characteristics in the city of Madrid (Spain). Calcium carbonate appears to be the soil property that determines the bioaccessibility of a majority of those elements, and the lack of influence of organic matter, pH and texture can be explained by their low levels in the samples (organic matter) or their narrow range of variation (pH and texture). A conservative risk assessment with bioaccessible concentrations in two scenarios, i.e. adult urban farmers and children playing in urban gardens, revealed acceptable levels of risk, but with large differences between urban gardens depending on their history of land use and their proximity to busy areas in the city center. Only in a worst-case scenario in which children who use urban gardens as recreational areas also eat the produce grown in them would the risk exceed the limits of acceptability

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una técnica de refuerzo de elementos flectados en general y, en particular, de vigas y forjados de hormigón armado, consiste en la disposición de perfiles metálicos por debajo de los elementos a reforzar y retacados a ellos. En muchos casos este refuerzo se diseña con un planteamiento pasivo, es decir, los perfiles no entran en carga hasta que no se incrementan las acciones sobre el elemento reforzado, o lo hacen sólo ligeramente y de forma cuantitativamente no controlada efectuando el retacado mediante cuñas metálicas. En el presente trabajo se estudia la alternativa del refuerzo de vigas de hormigón armado frente a momentos flectores con un planteamiento activo, introduciendo unas fuerzas (por ejemplo, mediante gatos o barras roscadas) entre el perfil y el elemento a reforzar, y retacando posteriormente el perfil a la viga en los puntos de introducción de las fuerzas, mediante cuñas metálicas, mortero, etc. La propuesta que formulamos en el presente trabajo de investigación para el control de las fuerzas introducidas consiste en la medida de las flechas que se producen en el perfil metálico al hacerlo reaccionar contra la viga. Esto permite el empleo de procedimientos sencillos para la predeformación del perfil que no dispongan de dispositivos de medida de la carga introducida, o bien controlar la veracidad de las medidas de las fuerzas que dan tales dispositivos. La gran fiabilidad que tiene el cálculo de flechas en jácenas metálicas hace que con este procedimiento se puedan conocer con gran precisión las fuerzas introducidas. Las medidas de las flechas se pueden llevar a cabo mediante los procedimientos de instrumentación habituales en pruebas de carga, con una precisión más que suficiente para conocer y controlar con fiabilidad el valor de las fuerzas que el perfil ejerce sobre la viga. Los perfiles necesarios para el refuerzo con esta técnica son netamente inferiores a los que se precisarían con el planteamiento pasivo antes indicado. En el trabajo de investigación se recoge un estudio sobre el número, posición y valor de las fuerzas de refuerzo a introducir, en función de la carga para la que se diseña el refuerzo y la capacidad resistente del elemento a reforzar, y se analizan los valores máximos que pueden tener dichas fuerzas, en función de la capacidad de la pieza frente a momentos de signo contrario a los debidos a las cargas gravitatorias. A continuación se analiza la interacción viga-perfil al incrementarse las cargas sobre la viga desde el instante de la ejecución del refuerzo, interacción que hace variar el valor de las fuerzas que el perfil ejerce sobre la viga. Esta variación permite contar con un incremento en las fuerzas de refuerzo si, con las cargas permanentes presentes al reforzar, no podemos introducirlas inicialmente con el valor necesario, o si se producen pérdidas en las propias fuerzas. Este es uno de los criterios a la hora de seleccionar las características del perfil. Por el contrario, dicha variación puede suponer que en algunos puntos a lo largo del vano se supere la capacidad a flexión frente a momentos de signo contrario a los debidos a las cargas gravitatorias, lo que también debe ser tenido en cuenta. Seguidamente se analizan diferentes aspectos que producen una variación en el valor de las fuerzas de refuerzo, como son las deformaciones diferidas del hormigón (fluencia y retracción), los gradientes de temperatura en la pieza, o la actuación de sobrecargas en los vanos adyacentes. Se concluye los efectos de estos fenómenos, que en ocasiones tienen gran influencia, pueden ser cuantificados por el proyectista, recogiéndose propuestas sencillas para su consideración en casos habituales. Posteriormente recogemos una propuesta de metodología de comprobación del refuerzo, en cuanto a cómo considerar la fisuración y evolución del módulo de deformación de la viga, la introducción de la seguridad, la influencia de las tolerancias de laminación en el perfil sobre el valor calculado de las flechas necesarias en el perfil para introducir las fuerzas iniciales proyectadas, o la situación accidental de fuego, entre otros aspectos. Por último, se exponen las conclusiones más relevantes de la investigación realizada, y se proponen futuras líneas de investigación. One technique for strengthening flexural members in general, and reinforced concrete beams and slabs in particular, entails caulking the underside of these members with steel shapes. This sort of strengthening is often designed from a passive approach; i.e., until the load is increased, the shapes are either not loaded or are only slightly loaded to some unquantified extent by caulking with steel shims. The present study explored the possibility of actively strengthening the capacity of reinforced concrete beams to resist bending moments by applying forces (with jacks or threaded bars, for instance) between the shape and the member to be strengthened. The shape is subsequently caulked under the beam at the points where the forces are applied with steel shims, mortar or similar. The proposal put forward in the present study to monitor the forces applied consists in measuring the deflection on the steel shape as it reacts against the beam. With this technique, the shape can be pre-strained using simple procedures that do not call for devices to measure the force applied, or the accurancy of the respective measurements can be verified. As deflection calculations in steel girders are extremely reliable, the forces applied with this procedure can be very precisely determined. Standard instrumental procedures for load testing can be used to measure deflection with more than sufficient precision to reliably determine and monitor the value of the forces exerted on the beam by the shape. Moreover, the shapes required to strengthen members with this technique are substantially smaller than the ones needed in the aforementioned passive approach. This study addressed the number, position and value of the strengthening forces to be applied in terms of the load for which strengthening was designed and the bearing capacity of the member to be strengthened. The maximum value of such forces was also analysed as a function of the capacity of the member to resist counter-gravity moments. An analysis was then conducted of beam-shape interaction when the load on the beam raises since the instant that strengthening is applied, interaction that alters the forces applied to the beam by the shape. This variation can provide an increment in the forces if we cannot introduce them initially with the value calculated as necessary because they were limited by the permanent loads existing when strengthening, or if losses occur in the forces themselves. This is one of the criteria for defining shape specifications. Conversely, such variation may cause the forces to exceed beam counter-gravity bending strength at some points in the span, a development that must also be taken into consideration. Other factors inducing variations in the strengthening force values were then analysed, including deferred concrete strain (creep and shrinkage), temperature gradients in the member and the live loads acting on adjacent spans. The inference drawn was that these developments, which may on occasion have a heavy impact, can be quantified by the design engineer, particularly in ordinary situations, for which simple procedures are proposed. Methodology is likewise proposed for verifying strength in terms of how to appraise beam's cracking and variations in modulus of deformation; safety concerns; the effect of shape lamination tolerance on the calculated deflection necessary for the shape to apply the design forces; and fire-induced situations, among others. Lastly, the most prominent conclusions are discussed and future lines of research are suggested.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A compact 680-GHz waveguide orthomode transducer (OMT) and circular horn combination has been designed, tested, and characterized in a radar transceiver's duplexer. The duplexing capability is implemented by a hybrid waveguide quasi optical solution, combining a linear polarization OMT and an external grating polarizer. Isolation between the OMT's orthogonal ports' flanges was measured with a vector network analyzer to exceed 33 dB over a >10% bandwidth between 630 and 710 GHz. Calibrated Y-factor measurements using a mixer attached to the OMT ports reveal losses through the transmit and receive paths that sum to an average of 4.7 dB of two-way loss over 660-690 GHz. This is consistent with radar sensitivity measurements comparing the new OMT/horn with a quasi-optical wire grid beam splitter. Moreover, the radar performance assessment validates the OMT as a suitable compact substitute of the wire grid for the JPL's short-range 680-GHz imaging radar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Different approaches have arisen aiming to exceed the Shockley-Queisser efficiency limit of solar cells. Particularly, stacking QD layers allows exploiting their unique properties, not only for intermediate-band solar cells or multiple exciton generation, but also for tandem cells in which the tunability of QD properties through the capping layer (CL) could be very useful.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Different approaches have recently arisen aiming to exceed the Shockley-Queisser efficiency limit. Particularly, the use of self-organized quantum dots (QD) has been recently proposed in order to introduce new states within the barrier material, which enhances the subband gap absorption yielding a photocurrent increase. Stacking QD layers allows exploiting their unique properties for intermediate-band solar cells (SC) or tandem cells.In all these cases, tuning the QD properties by modifying the capping layer (CL) can be very useful.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As embedded systems evolve, problems inherent to technology become important limitations. In less than ten years, chips will exceed the maximum allowed power consumption affecting performance, since, even though the resources available per chip are increasing, frequency of operation has stalled. Besides, as the level of integration is increased, it is difficult to keep defect density under control, so new fault tolerant techniques are required. In this demo work, a new dynamically adaptable virtual architecture (ARTICo3) to allow dynamic and context-aware use of resources is implemented in a high performance Wireless Sensor node (HiReCookie) to perform an image processing application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde mediados de la década de los 80 se está investigando sobre el hormigón autocompactante. Cada día, su uso en el mundo de la construcción es más común debido a sus numerosas ventajas como su excelente fluidez ya que puede fluir bajo su propio peso y llenar encofrados con formas complicadas y muy armados sin necesidad de compactaciones internas o externas. Por otra parte, la búsqueda de materiales más resistentes y duraderos, ha dado lugar a la incorporación de adiciones en materiales a base de cemento. En las últimas dos décadas, los ensayos con los nanomateriales, ha experimentado un gran aumento. Los resultados hasta ahora obtenidos pueden asumir no sólo un aumento en la resistencia de estos materiales, pero un cambio es su funcionalidad. Estas nanopartículas, concretamente la nanosílice, no sólo mejoran sus propiedades mecánicas y especialmente sus propiedades durables, sino que pueden implicar un cambio sustancial en las condiciones de uso y en su ciclo de vida. Este trabajo tiene como principal objetivo el estudio de las propiedades mecánicas, características microestructurales y durables de un hormigón autocompactante cuando se le agrega como adición nanosílice, microsílice y mezcla binarias de ambas, como adición al cemento. Para ello se han realizado 10 mezclas de hormigón. Se utilizó como referencia un hormigón autocompactante obtenido con cemento, caliza, árido, aditivo modificador de viscosidad Se han fabricado tres hormigones con la misma dosificación pero con diferentes contenidos de nanosílice. 2,5%, 5% y 7,5% Tres dosificaciones con adición de microsílice 2,5%, 5% y 7,5% y las tres restantes con mezclas binarias de nanosílice y microsílice con respectivamente2,5%-2,5%, 5%-2,5% y 2,5%-5%, sobre el peso del cemento. El contenido de superplastificante se modificó para conseguir las características de autocompactabilidad. Para observar los efectos de las adiciones añadidas al hormigón, se realiza una extensa campaña experimental. En ella se evaluaron en primer lugar, las características de autocompactabilidad del material en estado fresco, mediante los ensayos prescritos en la Instrucción Española del hormigón estructural EHE 08. Las propiedades mecánicas fueron evaluadas con ensayos de resistencia a compresión, resistencia a tracción indirecta y módulo de elasticidad. Las características microestructurales fueron analizadas mediante porosimetría por intrusión de mercurio, el análisis termogravimétrico y la microscopía electrónica de barrido. Para el estudio de la capacidad durable de las mezclas se realizaron ensayos de resistividad eléctrica, migración de cloruros, difusión de cloruros, carbonatación acelerada, absorción capilar y resistencia al hielo-deshielo. Los resultados ponen de manifiesto que la acción de las adiciones genera mejoras en las propiedades resistentes del material. Así, la adición de nanosílice proporciona mayores resistencias a compresión que la microsílice, sin embargo las mezclas binarias con bajas proporciones de adición producen mayores resistencias. Por otra parte, se observó mediante la determinación de las relaciones de gel/portlandita, que las mezclas que contienen nanosílice tienen una mayor actividad puzolánica que las que contienen microsílice. En las mezclas binarias se obtuvo como resultado que mientras mayor es el contenido de nanosílice en la mezcla mayor es la actividad puzolánica. Unido a lo anteriormente expuesto, el estudio de la porosidad da como resultado que la adición de nanosílice genera un refinamiento del tamaño de los poros mientras que la adición de microsílice disminuye la cantidad de los mismos sin variar el tamaño de poro medio. Por su parte, en las micrografías, se visualizó la formación de cristales procedentes de la hidratación del cemento. En ellas, se pudo observar, que al adicionar nanosílice, la velocidad de hidratación aumenta al aumentar la formación de monosulfoaluminatos con escasa presencia de etringita. Mientras que en las mezclas con adición de microsílice se observan mayor cantidad de cristales de etringita, lo que confirma que la velocidad de hidratación en estos últimos fue menor. Mediante el estudio de los resultados de las pruebas de durabilidad, se observó que no hay diferencias significativas entre el coeficiente de migración de cloruros y el coeficiente de difusión de cloruros en hormigones con adición de nano o microsílice. Aunque este coeficiente es ligeramente menor en mezclas con adición de microsílice. Sin embargo, en las mezclas binarias de ambas adiciones se obtuvo valores de los coeficientes de difusión o migración de cloruros inferiores a los obtenidos en mezclas con una única adición. Esto se evidencia en los resultados de las pruebas de resistividad eléctrica, de difusión de cloruros y de migración de cloruros. Esto puede ser debido a la suma de los efectos que producen el nano y micro adiciones en la porosidad. El resultado mostró que nanosílice tiene un papel importante en la reducción de los poros y la microsílice disminuye el volumen total de ellos. Esto permite definir la vida útil de estos hormigones a valores muy superiores a los exigidos por la EHE-08, por lo que es posible reducir, de forma notable, el recubrimiento exigido en ambiente de alta agresividad asegurando un buen comportamiento en servicio. Por otra parte, la pérdida de masa debido a los ciclos de congelación-descongelación es significativamente menor en los hormigones que contienen nanosílice que los que contienen microsílice. Este resultado está de acuerdo con el ensayo de absorción capilar. De manera general, se puede concluir que son las mezclas binarias y más concretamente la mezcla con un 5% de nanosílice y 2,5% de microsílice la que presenta los mejores resultados tanto en su comportamiento resistente con en su comportamiento durable. Esto puede ser debido a que en estas mezclas la nanosílice se comporta como un núcleo de activación de las reacciones puzolánicas rodeado de partículas de mayor tamaño. Además, el extraordinario comportamiento durable puede deberse también a la continuidad en la curva granulométrica por la existencia de la microsílice, el filler calizo, el cemento, la arena y la gravilla con tamaños de partículas que garantice mezclas muy compactas que presentan elevadas prestaciones. Since the middle of the decade of the 80 is being investigated about self-consolidating concrete. Every day, its use in the world of construction is more common due to their numerous advantages as its excellent fluidity such that it can flow under its own weight and fill formworks with complicated shapes and congested reinforcement without need for internal or external compactions. Moreover, the search for more resistant and durable materials, has led to the incorporation of additions to cement-based materials. In the last two decades, trials with nanomaterials, has experienced a large increase. The results so far obtained can assume not only an increase in the resistance of these materials but a change is its functionality. These nano particles, particularly the nano silica, not only improve their mechanical properties and especially its durable properties, but that may imply a substantial change in the conditions of use and in their life cycle. This work has as its main objective the study of the mechanical properties, the microstructural characteristics and durability capacity in one self-compacting concrete, when added as addition to cement: nano silica, micro silica o binary mixtures of both. To this effect, 10 concrete mixes have been made. As reference one with a certain amount of cement, limestone filler, viscosity modifying additive and water/binder relation. Furthermore they were manufactured with the same dosage three mix with addition of 2.5%, 5% and 7.5% of nano silica by weight of cement. Other three with 2.5%, 5% and 7.5% of micro silica and the remaining three with binary mixtures of 2.5%-2.5%, 5%-2.5% and 2.5%-5% of silica nano-micro silica respectively, b weight of cement, varying only the amount of superplasticizer to obtain concrete with characteristics of self-compactability. To observe the effects of the additions added to the concrete, an extensive experimental campaign was performed. It assessed, first, the characteristics of self-compactability of fresh material through the tests prescribed in the Spanish Structural Instruction Concrete EHE 08. The mechanical properties were evaluated by compression strength tests, indirect tensile strength and modulus of elasticity. The microstructural properties were analyzed by mercury intrusion porosimetry, thermogravimetric analysis and scanning electron microscopy. To study the durability, were performed electrical resistivity tests, migration and diffusion of chlorides, accelerated carbonation, capillary suction and resistance to freeze-thaw cycles. The results show that the action of the additions generates improvements in the strength properties of the material. Specifically, the addition of nano silica provides greater resistance to compression that the mix with micro silica, however binary mixtures with low addition rates generate higher strengths. Moreover, it was observed by determining relationships gel/portlandite, that the pozzolanic activity in the mixtures with nano silica was higher than in the mixtures with micro silica. In binary mixtures it was found that the highest content of nano silica in the mix is the one with the highest pozzolanic activity. Together with the foregoing, the study of the porosity results in the mixture with addition of nano silica generates a refinement of pore size while adding micro silica decreases the amount thereof without changing the average pore size. On the other hand, in the micrographs, the formation of crystals of cement hydration was visualized. In them, it was observed that by adding nano silica, the speed of hydration increases with increasing formation monosulfoaluminatos with scarce presence of ettringite. While in mixtures with addition of micro silica, ettringite crystals are observed, confirming that the hydration speed was lower in these mixtures. By studying the results of durability testing, it observed that no significant differences between the coefficient of migration of chlorides and coefficient of diffusion of chlorides in concretes with addition of nano or micro silica. Although this coefficient is slightly lower in mixtures with addition of micro silica. However, in binary mixtures of both additions was obtained values of coefficients of difusion o migration of chlorides lower than those obtained in mixtures with one of the additions. This is evidenced by the results of the tests electrical resistivity, diffusion of chlorides and migration of chlorides. This may be due to the sum of the effects that produced the nano and micro additions in the porosity. The result showed that nano silica has an important role in the pores refining and the micro silica decreases the total volume of them. This allows defining the life of these concretes in values to far exceed those required by the EHE-08, making it possible to reduce, significantly, the coating required in highly aggressive environment and to guarantee good behavior in service. Moreover, the mass loss due to freeze-thaw cycles is significantly lower in concretes containing nano silica than those containing micro silica. This result agrees with the capillary absorption test. In general, one can conclude that the binary mixture and more specifically the mixture with 5% of nano silica and 2.5% silica fume is which presents the best results in its durable behavior. This may be because in these mixtures, the nano silica behaves as cores activation of pozzolanic reactions. In addition, the durable extraordinary behavior may also be due to the continuity of the grading curve due to existence of micro silica, limestone filler, cement, sand and gravel with particle sizes that guarantees very compact mixtures which have high performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El nitrógeno (N) y el fósforo (P) son nutrientes esenciales en la producción de cultivos. El desarrollo de los fertilizantes de síntesis durante el siglo XX permitió una intensificación de la agricultura y un aumento de las producciones pero a su vez el gran input de nutrientes ha resultado en algunos casos en sistemas poco eficientes incrementando las pérdidas de estos nutrientes al medio ambiente. En el caso del P, este problema se agrava debido a la escasez de reservas de roca fosfórica necesaria para la fabricación de fertilizantes fosfatados. La utilización de residuos orgánicos en agricultura como fuente de N y P es una buena opción de manejo que permite valorizar la gran cantidad de residuos que se generan. Sin embargo, es importante conocer los procesos que se producen en el suelo tras la aplicación de los mismos, ya que influyen en la disponibilidad de nutrientes que pueden ser utilizados por el cultivo así como en las pérdidas de nutrientes de los agrosistemas que pueden ocasionar problemas de contaminación. Aunque la dinámica del N en el suelo ha sido más estudiada que la del P, los problemas importantes de contaminación por nitratos en zonas vulnerables hacen necesaria la evaluación de aquellas prácticas de manejo que pudieran agravar esta situación, y en el caso de los residuos orgánicos, la evaluación de la respuesta agronómica y medioambiental de la aplicación de materiales con un alto contenido en N (como los residuos procedentes de la industria vinícola y alcoholera). En cuanto al P, debido a la mayor complejidad de su ciclo y de las reacciones que ocurren en el suelo, hay un mayor desconocimiento de los factores que influyen en su dinámica en los sistemas suelo-planta, lo que supone nuevas oportunidades de estudio en la evaluación del uso agrícola de los residuos orgánicos. Teniendo en cuenta los conocimientos previos sobre cada nutriente así como las necesidades específicas en el estudio de los mismos, en esta Tesis se han evaluado: (1) el efecto de la aplicación de residuos procedentes de la industria vinícola y alcoholera en la dinámica del N desde el punto de vista agronómico y medioambiental en una zona vulnerable a la contaminación por nitratos; y (2) los factores que influyen en la disponibilidad de P en el suelo tras la aplicación de residuos orgánicos. Para ello se han llevado a cabo incubaciones de laboratorio así como ensayos de campo que permitieran evaluar la dinámica de estos nutrientes en condiciones reales. Las incubaciones de suelo en condiciones controladas de humedad y temperatura para determinar el N mineralizado se utilizan habitualmente para estimar la disponibilidad de N para el cultivo así como el riesgo medioambiental. Por ello se llevó a cabo una incubación en laboratorio para conocer la velocidad de mineralización de N de un compost obtenido a partir de residuos de la industria vinícola y alcoholera, ampliamente distribuida en Castilla-La Mancha, región con problemas importantes de contaminación de acuíferos por nitratos. Se probaron tres dosis crecientes de compost correspondientes a 230, 460 y 690 kg de N total por hectárea que se mezclaron con un suelo franco arcillo arenoso de la zona. La evolución del N mineral en el suelo a lo largo del tiempo se ajustó a un modelo de regresión no lineal, obteniendo valores bajos de N potencialmente mineralizable y bajas contantes de mineralización, lo que indica que se trata de un material resistente a la mineralización y con una lenta liberación de N en el suelo, mineralizándose tan solo 1.61, 1.33 y 1.21% del N total aplicado con cada dosis creciente de compost (para un periodo de seis meses). Por otra parte, la mineralización de N tras la aplicación de este material también se evaluó en condiciones de campo, mediante la elaboración de un balance de N durante dos ciclos de cultivo (2011 y 2012) de melón bajo riego por goteo, cultivo y manejo agrícola muy característicos de la zona de estudio. Las constantes de mineralización obtenidas en el laboratorio se ajustaron a las temperaturas reales en campo para predecir el N mineralizado en campo durante el ciclo de cultivo del melón, sin embargo este modelo generalmente sobreestimaba el N mineralizado observado en campo, por la influencia de otros factores no tenidos en cuenta para obtener esta predicción, como el N acumulado en el suelo, el efecto de la planta o las fluctuaciones de temperatura y humedad. Tanto el ajuste de los datos del laboratorio al modelo de mineralización como las predicciones del mismo fueron mejores cuando se consideraba el efecto de la mezcla suelo-compost que cuando se aislaba el N mineralizado del compost, mostrando la importancia del efecto del suelo en la mineralización del N procedente de residuos orgánicos. Dado que esta zona de estudio ha sido declarada vulnerable a la contaminación por nitratos y cuenta con diferentes unidades hidrológicas protegidas, en el mismo ensayo de campo con melón bajo riego por goteo se evaluó el riesgo de contaminación por nitratos tras la aplicación de diferentes dosis de compost bajo dos regímenes de riego, riego ajustado a las necesidades del cultivo (90 ó 100% de la evapotranspiración del cultivo (ETc)) o riego excedentario (120% ETc). A lo largo del ciclo de cultivo se estimó semanalmente el drenaje mediante la realización de un balance hídrico, así como se tomaron muestras de la solución de suelo y se determinó su concentración de nitratos. Para evaluar el riesgo de contaminación de las aguas subterráneas asociado con estas prácticas, se utilizaron algunos índices medioambientales para determinar la variación en la calidad del agua potable (Índice de Impacto (II)) y en la concentración de nitratos del acuífero (Índice de Impacto Ambiental (EII)). Para combinar parámetros medioambientales con parámetros de producción, se calculó la eficiencia de manejo. Se observó que la aplicación de compost bajo un régimen de riego ajustado no aumentaba el riesgo de contaminación de las aguas subterráneas incluso con la aplicación de la dosis más alta. Sin embargo, la aplicación de grandes cantidades de compost combinada con un riego excedentario supuso un incremento en el N lixiviado a lo largo del ciclo de cultivo, mientras que no se obtuvieron mayores producciones con respecto al riego ajustado. La aplicación de residuos de la industria vinícola y alcoholera como fuente de P fue evaluada en suelos calizos caracterizados por una alta capacidad de retención de P, lo cual en algunos casos limita la disponibilidad de este nutriente. Para ello se llevó a cabo otro ensayo de incubación con dos suelos de diferente textura, con diferente contenido de carbonato cálcico, hierro y con dos niveles de P disponible; a los que se aplicaron diferentes materiales procedentes de estas industrias (con y sin compostaje previo) aportando diferentes cantidades de P. A lo largo del tiempo se analizó el P disponible del suelo (P Olsen) así como el pH y el carbono orgánico disuelto. Al final de la incubación, con el fin de estudiar los cambios producidos por los diferentes residuos en el estado del P del suelo se llevó a cabo un fraccionamiento del P inorgánico del suelo, el cual se separó en P soluble y débilmente enlazado (NaOH-NaCl-P), P soluble en reductores u ocluido en los óxidos de Fe (CBD-P) y P poco soluble precipitado como Ca-P (HCl-P); y se determinó la capacidad de retención de P así como el grado de saturación de este elemento en el suelo. En este ensayo se observó que, dada la naturaleza caliza de los suelos, la influencia de la cantidad de P aplicado con los residuos en el P disponible sólo se producía al comienzo del periodo de incubación, mientras que al final del ensayo el incremento en el P disponible del suelo se igualaba independientemente del P aplicado con cada residuo, aumentando el P retenido en la fracción menos soluble con el aumento del P aplicado. Por el contrario, la aplicación de materiales orgánicos menos estabilizados y con un menor contenido en P, produjo un aumento en las formas de P más lábiles debido a una disolución del P retenido en la fracción menos lábil, lo cual demostró la influencia de la materia orgánica en los procesos que controlan el P disponible en el suelo. La aplicación de residuos aumentó el grado de saturación de P de los suelos, sin embargo los valores obtenidos no superaron los límites establecidos que indican un riesgo de contaminación de las aguas. La influencia de la aplicación de residuos orgánicos en las formas de P inorgánico y orgánico del suelo se estudió además en un suelo ácido de textura areno francosa tras la aplicación en campo a largo plazo de estiércol vacuno y de compost obtenido a partir de biorresiduos, así como la aplicación combinada de compost y un fertilizante mineral (superfosfato tripe), en una rotación de cultivos. En muestras de suelo recogidas 14 años después del establecimiento del experimento en campo, se determinó el P soluble y disponible, la capacidad de adsorción de P, el grado de saturación de P así como diferentes actividades enzimáticas (actividad deshidrogenasa, fosfatasa ácida y fosfatasa alcalina). Las diferentes formas de P orgánico en el suelo se estudiaron mediante una técnica de adición de enzimas con diferentes substratos específicos a extractos de suelo de NaOH-EDTA, midiendo el P hidrolizado durante un periodo de incubación por colorimetría. Las enzimas utilizadas fueron la fosfatasa ácida, la nucleasa y la fitasa las cuales permitieron identificar monoésteres hidrolizables (monoester-like P), diésteres (DNA-like P) e inositol hexaquifosfato (Ins6P-like P). La aplicación a largo plazo de residuos orgánicos aumentó el P disponible del suelo proporcionalmente al P aplicado con cada tipo de fertilización, suponiendo un mayor riesgo de pérdidas de P dado el alto grado de saturación de este suelo. La aplicación de residuos orgánicos aumentó el P orgánico del suelo resistente a la hidrólisis enzimática, sin embargo no influyó en las diferentes formas de P hidrolizable por las enzimas en comparación con las observadas en el suelo sin enmendar. Además, las diferentes formas de P orgánico aplicadas con los residuos orgánicos no se correspondieron con las analizadas en el suelo lo cual demostró que éstas son el resultado de diferentes procesos en el suelo mediados por las plantas, los microorganismos u otros procesos abióticos. En este estudio se encontró una correlación entre el Ins6P-like P y la actividad microbiana (actividad deshidrogenasa) del suelo, lo cual refuerza esta afirmación. Por último, la aplicación de residuos orgánicos como fuente de N y P en la agricultura se evaluó agronómicamente en un escenario real. Se estableció un experimento de campo para evaluar el compost procedente de residuos de bodegas y alcoholeras en el mismo cultivo de melón utilizado en el estudio de la mineralización y lixiviación de N. En este experimento se estudió la aplicación de tres dosis de compost: 1, 2 y 3 kg de compost por metro lineal de plantación correspondientes a 7, 13 y 20 t de compost por hectárea respectivamente; y se estudió el efecto sobre el crecimiento de las plantas, la acumulación de N y P en la planta, así como la producción y calidad del cultivo. La aplicación del compost produjo un ligero incremento en la biomasa vegetal acompañado por una mejora significativa de la producción con respecto a las parcelas no enmendadas, obteniéndose la máxima producción con la aplicación de 2 kg de compost por metro lineal. Aunque los efectos potenciales del N y P fueron parcialmente enmascarados por otras entradas de estos nutrientes en el sistema (alta concentración de nitratos en el agua de riego y ácido fosfórico suministrado por fertirrigación), se observó una mayor acumulación de P uno de los años de estudio que resultó en un aumento en el número de frutos en las parcelas enmendadas. Además, la mayor acumulación de N y P disponible en el suelo al final del ciclo de cultivo indicó el potencial uso de estos materiales como fuente de estos nutrientes. ABSTRACT Nitrogen (N) and phosphorus (P) are essential nutrients in crop production. The development of synthetic fertilizers during the 20th century allowed an intensification of the agriculture increasing crop yields but in turn the great input of nutrients has resulted in some cases in inefficient systems with higher losses to the environment. Regarding P, the scarcity of phosphate rock reserves necessary for the production of phosphate fertilizers aggravates this problem. The use of organic wastes in agriculture as a source of N and P is a good option of management that allows to value the large amount of wastes generated. However, it is important to understand the processes occurring in the soil after application of these materials, as they affect the availability of nutrients that can be used by the crop and the nutrient losses from agricultural systems that can cause problems of contamination. Although soil N dynamic has been more studied than P, the important concern of nitrate pollution in Nitrate Vulnerable Zones requires the evaluation of those management practices that could aggravate this situation, and in the case of organic wastes, the evaluation of the agronomic and environmental response after application of materials with a high N content (such as wastes from winery and distillery industries). On the other hand, due to the complexity of soil P cycle and the reactions that occur in soil, there is less knowledge about the factors that can influence its dynamics in the soil-plant system, which means new opportunities of study regarding the evaluation of the agricultural use of organic wastes. Taking into account the previous knowledge of each nutrient and the specific needs of study, in this Thesis we have evaluated: (1) the effect of the application of wastes from the winery and distillery industries on N dynamics from the agronomic and environmental viewpoint in a vulnerable zone; and (2) the factors that influence P availability in soils after the application of organic wastes. With this purposes, incubations were carried out in laboratory conditions as well as field trials that allow to assess the dynamic of these nutrients in real conditions. Soil incubations under controlled moisture and temperature conditions to determine N mineralization are commonly used to estimate N availability for crops together with the environmental risk. Therefore, a laboratory incubation was conducted in order to determine the N mineralization rate of a compost made from wastes generated in the winery and distillery industries, widely distributed in Castilla-La Mancha, a region with significant problems of aquifers contamination by nitrates. Three increasing doses of compost corresponding to 230, 460 and 690 kg of total N per hectare were mixed with a sandy clay loam soil collected in this area. The evolution of mineral N in soil over time was adjusted to a nonlinear regression model, obtaining low values of potentially mineralizable N and low constants of mineralization, indicating that it is a material resistant to mineralization with a slow release of N, with only 1.61, 1.33 and 1.21% of total N applied being mineralized with each increasing dose of compost (for a period of six months). Furthermore, N mineralization after the application of this material was also evaluated in field conditions by carrying out a N balance during two growing seasons (2011 and 2012) of a melon crop under drip irrigation, a crop and management very characteristic of the area of study. The mineralization constants obtained in the laboratory were adjusted to the actual temperatures observed in the field to predict N mineralized during each growing season, however, this model generally overestimated the N mineralization observed in the field, because of the influence of other factors not taken into account for this prediction, as N accumulated in soil, the plant effect or the fluctuations of temperature and moisture. The fitting of the laboratory data to the model as well as the predictions of N mineralized in the field were better when considering N mineralized from the soil-compost mixture rather than when N mineralized from compost was isolated, underlining the important role of the soil on N mineralization from organic wastes. Since the area of study was declared vulnerable to nitrate pollution and is situated between different protected hydrological units, the risk of nitrate pollution after application of different doses compost was evaluated in the same field trial with melon under two irrigation regimes, irrigation adjusted to the crop needs (90 or 100% of the crop evapotranspiration (ETc)) or excedentary irrigation (120% ETc). Drainage was estimated weekly throughout the growing season by conducting a water balance, samples of the soil solution were taken and the concentration of nitrates was determined. To assess the risk of groundwater contamination associated with these practices, some environmental indices were used to determine the variation in the quality of drinking water (Impact Index (II)) and the nitrates concentration in the groundwater (Environmental Impact Index (EII)). To combine environmental parameters together with yield parameters, the Management Efficiency was calculated. It was observed that the application of compost under irrigation adjusted to the plant needs did not represent a higher risk of groundwater contamination even with the application of the highest doses. However, the application of large amounts of compost combined with an irrigation surplus represented an increase of N leaching during the growing season compared with the unamended plots, while no additional yield with respect to the adjusted irrigation strategy is obtained. The application of wastes derived from the winery and distillery industry as source of P was evaluated in calcareous soils characterized by a high P retention capacity, which in some cases limits the availability of this nutrient. Another incubation experiment was carried out using two soils with different texture, different calcium carbonate and iron contents and two levels of available P; to which different materials from these industries (with and without composting) were applied providing different amounts of P. Soil available P (Olsen P), pH and dissolved organic carbon were analyzed along time. At the end of the incubation, in order to study the changes in soil P status caused by the different residues, a fractionation of soil inorganic P was carried out, which was separated into soluble and weakly bound P (NaOH-NaCl- P), reductant soluble P or occluded in Fe oxides (CBD-P) and P precipitated as poorly soluble Ca-P (HCl-P); and the P retention capacity and degree of P saturation were determined as well. Given the calcareous nature of the soils, the influence of the amount of P applied with the organic wastes in soil available P only occurred at the beginning of the incubation period, while at the end of the trial the increase in soil available P equalled independently of the amount of P applied with each residue, increasing the P retained in the least soluble fraction when increasing P applied. Conversely, the application of less stabilized materials with a lower content of P resulted in an increase in the most labile P forms due to dissolution of P retained in the less labile fraction, demonstrating the influence of organic matter addition on soil P processes that control P availability in soil. As expected, the application of organic wastes increased the degree of P saturation in the soils, however the values obtained did not exceed the limits considered to pose a risk of water pollution. The influence of the application of organic wastes on inorganic and organic soil P forms was also studied in an acid loamy sand soil after long-term field application of cattle manure and biowaste compost and the combined application of compost and mineral fertilizer (triple superphosphate) in a crop rotation. Soil samples were collected 14 years after the establishment of the field experiment, and analyzed for soluble and available P, P sorption capacity, degree of P saturation and enzymatic activities (dehydrogenase, acid phosphatase and alkaline phosphatase). The different forms of organic P in soil were determined by using an enzyme addition technique, based on adding enzymes with different substrate specificities to NaOH-EDTA soil extracts, measuring the hydrolyzed P colorimetrically after an incubation period. The enzymes used were acid phosphatase, nuclease and phytase which allowed to identify hydrolyzable monoesters (monoester-like P) diesters (DNA-like P) and inositol hexakisphosphate (Ins6P-like P). The long-term application of organic wastes increased soil available P proportionally to the P applied with each type of fertilizer, assuming a higher risk of P losses given the high degree of P saturation of this soil. The application of organic wastes increased soil organic P resistant to enzymatic hydrolysis, but no influence was observed regarding the different forms of enzyme hydrolyzable organic P compared to those observed in the non-amended soil. Furthermore, the different forms of organic P applied with the organic wastes did not correspond to those analyzed in the soil which showed that these forms in soil are a result of multifaceted P turnover processes in soil affected by plants, microorganisms and abiotic factors. In this study, a correlation between Ins6P-like P and the microbial activity (dehydrogenase activity) of soil was found, which reinforces this claim. Finally, the application of organic wastes as a source of N and P in agriculture was evaluated agronomically in a real field scenario. A field experiment was established to evaluate the application of compost made from wine-distillery wastes in the same melon crop used in the experiments of N mineralization and leaching. In this experiment the application of three doses of compost were studied: 1 , 2 and 3 kg of compost per linear meter of plantation corresponding to 7, 13 and 20 tonnes of compost per hectare respectively; and the effect on plant growth, N and P accumulation in the plant as well as crop yield and quality was studied. The application of compost produced a slight increase in plant biomass accompanied by a significant improvement in crop yield with respect to the unamended plots, obtaining the maximum yield with the application of 2 kg of compost per linear meter. Although the potential effects of N and P were partially masked by other inputs of these nutrients in the system (high concentration of nitrates in the irrigation water and phosphoric acid supplied by fertigation), an effect of P was observed the first year of study resulting in a greater plant P accumulation and in an increase in the number of fruits in the amended plots. In addition, the higher accumulation of available N and P in the topsoil at the end of the growing season indicated the potential use of this material as source of these nutrients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los polímeros compostables suponen en torno al 30% de los bioplásticos destinados a envasado, siendo a su vez esta aplicación el principal destino de la producción de este tipo de materiales que, en el año 2013, superó 1,6 millones de toneladas. La presente tesis aborda la biodegradación de los residuos de envases domésticos compostables en medio aerobio para dos tipos de formato y materiales, envase rígido de PLA (Clase I) y dos tipos de bolsas de PBAT+PLA (Clases II y III). Sobre esta materia se han realizado diversos estudios en escala de laboratorio pero para otro tipo de envases y biopolímeros y bajo condiciones controladas del compost con alguna proyección particularizada en plantas. La presente tesis da un paso más e investiga el comportamiento real de los envases plásticos compostables en la práctica del compostaje en tecnologías de pila y túnel, tanto a escala piloto como industrial, dentro del procedimiento y con las condiciones ambientales de instalaciones concretas. Para ello, con el método seguido, se han analizado los requisitos básicos que debe cumplir un envase compostable, según la norma UNE – EN 13432, evaluando el porcentaje de biodegradación de los envases objeto de estudio, en función de la pérdida de peso seco tras el proceso de compostaje, y la calidad del compost obtenido, mediante análisis físico-químico y de fitotoxicidad para comprobar que los materiales de estudio no aportan toxicidad. En cuanto a los niveles de biodegrabilidad, los resultados permiten concluir que los envases de Clase I se compostan adecuadamente en ambas tecnologías y que no requieren de unas condiciones de proceso muy exigentes para alcanzar niveles de biodegradación del 100%. En relación a los envases de Clase II, se puede asumir que se trata de un material que se composta adecuadamente en pila y túnel industrial pero que requiere de condiciones exigentes para alcanzar niveles de biodegradación del 100% al afectarle de forma clara la ubicación de las muestras en la masa a compostar, especialmente en el caso de la tecnología de túnel. Mientras el 90% de las muestras alcanza el 100% de biodegradación en pila industrial, tan sólo el 50% lo consigue en la tecnología de túnel a la misma escala. En cuanto a los envases de Clase III, se puede afirmar que es un material que se composta adecuadamente en túnel industrial pero que requiere de condiciones de cierta exigencia para alcanzar niveles de biodegradación del 100% al poderle afectar la ubicación de las muestras en la masa a compostar. El 75% de las muestras ensayadas en túnel a escala industrial alcanzan el 100% de biodegradación y, aunque no se ha ensayado este tipo de envase en la tecnología de pila al no disponer de muestras, cabe pensar que los resultados de biodegrabilidad que hubiera podido alcanzar habrían sido, como mínimo, los obtenidos para los envases de Clase II, al tratarse de materiales muy similares en composición. Por último, se concluye que la tecnología de pila es más adecuada para conseguir niveles de biodegradación superiores en los envases tipo bolsa de PBAT+PLA. Los resultados obtenidos permiten también sacar en conclusión que, en el diseño de instalaciones de compostaje para el tratamiento de la fracción orgánica recogida selectivamente, sería conveniente realizar una recirculación del rechazo del afino del material compostado para aumentar la probabilidad de someter este tipo de materiales a las condiciones ambientales adecuadas. Si además se realiza un triturado del residuo a la entrada del proceso, también se aumentaría la superficie específica a entrar en contacto con la masa de materia orgánica y por tanto se favorecerían las condiciones de biodegradación. En cuanto a la calidad del compost obtenido en los ensayos, los resultados de los análisis físico – químicos y de fitotoxicidad revelan que los niveles de concentración de microorganismo patógenos y de metales pesados superan, en la práctica totalidad de las muestras, los niveles máximos permitidos en la legislación vigente aplicable a productos fertilizantes elaborados con residuos. Mediante el análisis de la composición de los envases ensayados se constata que la causa de esta contaminación reside en la materia orgánica utilizada para compostar en los ensayos, procedente del residuo de origen doméstico de la denominada “fracción resto”. Esta conclusión confirma la necesidad de realizar una recogida selectiva de la fracción orgánica en origen, existiendo estudios que evidencian la mejora de la calidad del residuo recogido en la denominada “fracción orgánica recogida selectivamente” (FORM). Compostable polymers are approximately 30% of bioplastics used for packaging, being this application, at same time, the main destination for the production of such materials exceeded 1.6 million tonnes in 2013. This thesis deals with the biodegradation of household packaging waste compostable in aerobic medium for two format types and materials, rigid container made of PLA (Class I) and two types of bags made of PBAT + PLA (Classes II and III). There are several studies developed about this issue at laboratory scale but for other kinds of packaging and biopolymers and under composting controlled conditions with some specifically plants projection. This thesis goes one step further and researches the real behaviour of compostable plastic packaging in the composting practice in pile and tunnel technologies, both at pilot and industrial scale, within the procedure and environmental conditions of concrete devices. Therefore, with a followed method, basic requirements fulfilment for compostable packaging have been analysed according to UNE-EN 13432 standard. It has been assessed the biodegradability percentage of the packaging studied, based on loss dry weight after the composting process, and the quality of the compost obtained, based on physical-chemical analysis to check no toxicity provided by the studied materials. Regarding biodegradability levels, results allow to conclude that Class I packaging are composted properly in both technologies and do not require high exigent process conditions for achieving 100% biodegradability levels. Related to Class II packaging, it can be assumed that it is a material that composts properly in pile and tunnel at industrial scale but requires exigent conditions for achieving 100% biodegradability levels for being clearly affected by sample location in the composting mass, especially in tunnel technology case. While 90% of the samples reach 100% of biodegradation in pile at industrial scale, only 50% achieve it in tunnel technology at the same scale. Regarding Class III packaging, it can be said that it is a material properly composted in tunnel at industrial scale but requires certain exigent conditions for reaching 100% biodegradation levels for being possibly affected by sample location in the composting mass. The 75% of the samples tested in tunnel at industrial scale reaches 100% biodegradation. Although this kind of packaging has not been tested on pile technology due to unavailability of samples, it is judged that biodegradability results that could be reached would have been, at least, the same obtained for Class II packaging, as they are very similar materials in composition. Finally, it is concluded that pile technology is more suitable for achieving highest biodegradation levels in bag packaging type of PBAT+PLA. Additionally, the obtained results conclude that, in the designing of composting devices for treatment of organic fraction selectively collected, it would be recommended a recirculation of the refining refuse of composted material in order to increase the probability of such materials to expose to proper environmental conditions. If the waste is grinded before entering the process, the specific surface in contact with organic material would also be increased and therefore biodegradation conditions would be more favourable. Regarding quality of the compost obtained in the tests, physical-chemical and phytotoxicity analysis results reveal that pathogen microorganism and heavy metals concentrations exceed, in most of the samples, the maximum allowed levels by current legislation for fertilizers obtained from wastes. Composition analysis of tested packaging verifies that the reason for this contamination is the organic material used for composting tests, comes from the household waste called “rest fraction”. This conclusion confirms the need of a selective collection of organic fraction in the origin, as existing studies show the quality improvement of the waste collected in the so-called “organic fraction selectively collected” (FORM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protección de las aguas subterráneas es una prioridad de la política medioambiental de la UE. Por ello ha establecido un marco de prevención y control de la contaminación, que incluye provisiones para evaluar el estado químico de las aguas y reducir la presencia de contaminantes en ellas. Las herramientas fundamentales para el desarrollo de dichas políticas son la Directiva Marco del Agua y la Directiva Hija de Aguas Subterráneas. Según ellas, las aguas se consideran en buen estado químico si: • la concentración medida o prevista de nitratos no supera los 50 mg/l y la de ingredientes activos de plaguicidas, de sus metabolitos y de los productos de reacción no supera el 0,1 μg/l (0,5 μg/l para el total de los plaguicidas medidos) • la concentración de determinadas sustancias de riesgo es inferior al valor umbral fijado por los Estados miembros; se trata, como mínimo, del amonio, arsénico, cadmio, cloruro, plomo, mercurio, sulfatos, tricloroetileno y tetracloroetileno • la concentración de cualquier otro contaminante se ajusta a la definición de buen estado químico enunciada en el anexo V de la Directiva marco sobre la política de aguas • en caso de superarse el valor correspondiente a una norma de calidad o a un valor umbral, una investigación confirma, entre otros puntos, la falta de riesgo significativo para el medio ambiente. Analizar el comportamiento estadístico de los datos procedentes de la red de seguimiento y control puede resultar considerablemente complejo, debido al sesgo positivo que suelen presentar dichos datos y a su distribución asimétrica, debido a la existencia de valores anómalos y diferentes tipos de suelos y mezclas de contaminantes. Además, la distribución de determinados componentes en el agua subterránea puede presentar concentraciones por debajo del límite de detección o no ser estacionaria debida a la existencia de tendencias lineales o estacionales. En el primer caso es necesario realizar estimaciones de esos valores desconocidos, mediante procedimientos que varían en función del porcentaje de valores por debajo del límite de detección y el número de límites de detección aplicables. En el segundo caso es necesario eliminar las tendencias de forma previa a la realización de contrastes de hipótesis sobre los residuos. Con esta tesis se ha pretendido establecer las bases estadísticas para el análisis riguroso de los datos de las redes de calidad con objeto de realizar la evaluación del estado químico de las masas de agua subterránea para la determinación de tendencias al aumento en la concentración de contaminantes y para la detección de empeoramientos significativos, tanto en los casos que se ha fijado un estándar de calidad por el organismo medioambiental competente como en aquéllos que no ha sido así. Para diseñar una metodología que permita contemplar la variedad de casos existentes, se han analizado los datos de la Red Oficial de Seguimiento y Control del Estado Químico de las Aguas Subterráneas del Ministerio de Agricultura, Alimentación y Medio Ambiente (Magrama). A continuación, y dado que los Planes Hidrológicos de Cuenca son la herramienta básica de las Directivas, se ha seleccionado la Cuenca del Júcar, dada su designación como cuenca piloto en la estrategia de implementación común (CIS) de la Comisión Europea. El objetivo principal de los grupos de trabajo creados para ello se dirigió a implementar la Directiva Derivada de Agua Subterráneas y los elementos de la Directiva Marco del Agua relacionadas, en especial la toma de datos en los puntos de control y la preparación del primer Plan de Gestión de Cuencas Hidrográficas. Dada la extensión de la zona y con objeto de analizar una masa de agua subterránea (definida como la unidad de gestión en las Directivas), se ha seleccionado una zona piloto (Plana de Vinaroz Peñiscola) en la que se han aplicado los procedimientos desarrollados con objeto de determinar el estado químico de dicha masa. Los datos examinados no contienen en general valores de concentración de contaminantes asociados a fuentes puntuales, por lo que para la realización del estudio se han seleccionado valores de concentración de los datos más comunes, es decir, nitratos y cloruros. La estrategia diseñada combina el análisis de tendencias con la elaboración de intervalos de confianza cuando existe un estándar de calidad e intervalos de predicción cuando no existe o se ha superado dicho estándar. De forma análoga se ha procedido en el caso de los valores por debajo del límite de detección, tomando los valores disponibles en la zona piloto de la Plana de Sagunto y simulando diferentes grados de censura con objeto de comparar los resultados obtenidos con los intervalos producidos de los datos reales y verificar de esta forma la eficacia del método. El resultado final es una metodología general que integra los casos existentes y permite definir el estado químico de una masa de agua subterránea, verificar la existencia de impactos significativos en la calidad del agua subterránea y evaluar la efectividad de los planes de medidas adoptados en el marco del Plan Hidrológico de Cuenca. ABSTRACT Groundwater protection is a priority of the EU environmental policy. As a result, it has established a framework for prevention and control of pollution, which includes provisions for assessing the chemical status of waters and reducing the presence of contaminants in it. The measures include: • criteria for assessing the chemical status of groundwater bodies • criteria for identifying significant upward trends and sustained concentrations of contaminants and define starting points for reversal of such trends • preventing and limiting indirect discharges of pollutants as a result of percolation through soil or subsoil. The basic tools for the development of such policies are the Water Framework Directive and Groundwater Daughter Directive. According to them, the groundwater bodies are considered in good status if: • measured or predicted concentration of nitrate does not exceed 50 mg / l and the active ingredients of pesticides, their metabolites and reaction products do not exceed 0.1 mg / l (0.5 mg / l for total of pesticides measured) • the concentration of certain hazardous substances is below the threshold set by the Member States concerned, at least, of ammonium, arsenic, cadmium, chloride, lead, mercury, sulphates, trichloroethylene and tetrachlorethylene • the concentration of other contaminants fits the definition of good chemical status set out in Annex V of the Framework Directive on water policy • If the value corresponding to a quality standard or a threshold value is exceeded, an investigation confirms, among other things, the lack of significant risk to the environment. Analyzing the statistical behaviour of the data from the monitoring networks may be considerably complex due to the positive bias which often presents such information and its asymmetrical distribution, due to the existence of outliers and different soil types and mixtures of pollutants. Furthermore, the distribution of certain components in groundwater may have concentrations below the detection limit or may not be stationary due to the existence of linear or seasonal trends. In the first case it is necessary to estimate these unknown values, through procedures that vary according to the percentage of values below the limit of detection and the number of applicable limits of detection. In the second case removing trends is needed before conducting hypothesis tests on residuals. This PhD thesis has intended to establish the statistical basis for the rigorous analysis of data quality networks in order to conduct the evaluation of the chemical status of groundwater bodies for determining upward and sustained trends in pollutant concentrations and for the detection of significant deterioration in cases in which an environmental standard has been set by the relevant environmental agency and those that have not. Aiming to design a comprehensive methodology to include the whole range of cases, data from the Groundwater Official Monitoring and Control Network of the Ministry of Agriculture, Food and Environment (Magrama) have been analysed. Then, since River Basin Management Plans are the basic tool of the Directives, the Júcar river Basin has been selected. The main reason is its designation as a pilot basin in the common implementation strategy (CIS) of the European Commission. The main objective of the ad hoc working groups is to implement the Daughter Ground Water Directive and elements of the Water Framework Directive related to groundwater, especially the data collection at control stations and the preparation of the first River Basin Management Plan. Given the size of the area and in order to analyze a groundwater body (defined as the management unit in the Directives), Plana de Vinaroz Peñíscola has been selected as pilot area. Procedures developed to determine the chemical status of that body have been then applied. The data examined do not generally contain pollutant concentration values associated with point sources, so for the study concentration values of the most common data, i.e., nitrates and chlorides have been selected. The designed strategy combines trend analysis with the development of confidence intervals when there is a standard of quality and prediction intervals when there is not or the standard has been exceeded. Similarly we have proceeded in the case of values below the detection limit, taking the available values in Plana de Sagunto pilot area and simulating different degrees of censoring in order to compare the results obtained with the intervals achieved from the actual data and verify in this way the effectiveness of the method. The end result is a general methodology that integrates existing cases to define the chemical status of a groundwater body, verify the existence of significant impacts on groundwater quality and evaluate the effectiveness of the action plans adopted in the framework of the River Basin Management Plan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A conceptual energy storage system design that utilizes ultra high temperature phase change materials is presented. In this system, the energy is stored in the form of latent heat and converted to electricity upon demand by TPV (thermophotovoltaic) cells. Silicon is considered in this study as PCM (phase change material) due to its extremely high latent heat (1800 J/g or 500 Wh/kg), melting point (1410 C), thermal conductivity (~25 W/mK), low cost (less than $2/kg or $4/kWh) and abundance on earth. The proposed system enables an enormous thermal energy storage density of ~1 MWh/m3, which is 10e20 times higher than that of lead-acid batteries, 2e6 times than that of Li-ion batteries and 5e10 times than that of the current state of the art LHTES systems utilized in CSP (concentrated solar power) applications. The discharge efficiency of the system is ultimately determined by the TPV converter, which theoretically can exceed 50%. However, realistic discharge efficiencies utilizing single junction TPV cells are in the range of 20e45%, depending on the semiconductor bandgap and quality, and the photon recycling efficiency. This concept has the potential to achieve output electric energy densities in the range of 200-450 kWhe/m3, which is comparable to the best performing state of the art Lithium-ion batteries.