42 resultados para PLANTAS DE TRATAMIENTO DE AGUA
Resumo:
Se analiza la presencia de diferentes psicofármacos en el agua residual y los rendimientos de eliminación obtenidos en una depuradora convencional. Los psicofármacos prácticamente no se eliminan en el tratamiento biológico. Sin embargo, se ha obtenido una biodegradación considerable debido al tipo de compuesto y de la edad del fango. Además se estudian las retenciones de estos compuestos empleando tratamientos terciarios convencionales y plantas piloto de ultrafiltración y nanofiltración. Las eliminaciones obtenidas no difieren demasiado de un tipo de membrana a otro a pesar del diferente tamaño de paso entre ellas
Resumo:
La resistencia genética mediada por los genes R es uno de los sistemas de defensa de las plantas frente a patógenos y se activa una vez que los patógenos han superado la defensa basal que otorgan la cutícula y pared celular. Los mecanismos de resistencia genética se inician a su vez, por el reconocimiento de productos derivados de genes de avirulencia de los patógenos (avr) por parte de las proteínas R. Tanto la respuesta de defensa basal como la respuesta de defensa por genes R están influenciadas por patrones de regulación hormonal, que incluye a las principales hormonas vegetales ácido salicílico (SA), ácido jasmónico (JA) y etileno (ET). En tomate (Solanum lycopersicum) uno de los genes R es el gen MiG1, que confiere resistencia a nematodos formadores de nódulos (Meloidogyne javanica, M. incognita y M. arenaria). Uno de los eventos más importantes que caracterizan a la respuesta de resistencia es la reacción hipersensible (HR), que está mediada por la activación temprana de una serie de sistemas enzimáticos, entre los que destaca el de las peroxidasas (PRXs) Clase III. Su función es importante tanto para limitar el establecimiento y expansión del nematodo, al generar ambientes altamente tóxicos por su contribución en la producción masiva de ROS, como por su implicación en la síntesis y depósito de lignina generando barreras estructurales en el sitio de infección. Además de estos mecanismos de defensa asociados a la resistencia constitutiva, las plantas pueden desarrollar resistencia sistémica adquirida (SAR) que en la naturaleza ocurre, en ocasiones, en una fase posterior a que la planta haya sufrido el ataque de un patógeno. Así mismo hay diferentes productos de origen químico como el benzotiadiazol o BTH (ácido S-metil benzol-(1,2,3)-tiadiozole-7-carbónico ester) que pueden generar esta misma respuesta SAR. Como resultado, la planta adquiere resistencia sistémica frente a nuevos ataques de patógenos. En este contexto, el presente trabajo aborda en primer lugar el análisis comparativo, mediante microarrays de oligonucleótidos, de los transcriptomas de los sistemas radicales de plantas de tomate de 8 semanas de edad de dos variedades, una portadora del gen de resistencia MiG1 (Motelle) y otra carente del mismo y, por tanto, susceptible (Moneymaker), antes y después de la infección por M. javanica. Previo a la infección se observó que la expresión de un gran número de transcritos era más acusada en la variedad resistente que en la susceptible, entre ellos el propio gen MiG1 o los genes PrG1 (o P4), LEJA1 y ER24, lo que indica que, en ausencia de infección, las rutas hormonales del SA, JA y ET están más activas en la raíz de la variedad resistente. Por el contrario, un número mucho menor de transcritos presentaban su expresión más reducida en Motelle que en Moneymaker, destacando un gen de señalización para sintetizar la hormona giberelina (GA). La infección por M. javanica causa importantes cambios transcripcionales en todo el sistema radical que modifican sustancialmente las diferencias basales entre plantas Motelle y Moneymaker, incluida la sobreexpresión en la variedad resistente de los transcritos de MiG1, que se reduce parcialmente, mientras que las rutas hormonales del SA y el JA continuan más activas que en la susceptible (evidente por los genes PrG1 y LEJA1). Además, los cambios asociados a la infección del nematodo se evidencian por las grandes diferencias entre los dos tiempos post-infección considerados, de tal forma que en la fase temprana (2 dpi) de la interacción compatible predomina la sobreexpresión de genes de pared celular y en la tardía (12 dpi) los relacionados con el ARN. En el análisis de la interacción incompatible, aunque también hay muchas diferencias entre ambas fases, hay que destacar la expresión diferencial común de los genes loxA y mcpi (sobrexpresados) y del gen loxD (reprimido) por su implicación en defensa en otras interacciones planta-patógeno. Cabe destacar que entre las interacciones compatible e incompatible hubo muy pocos genes en común. En la etapa temprana de la interacción compatible destacó la activación de genes de pared celular y la represión de la señalización; en cambio, en la interacción incompatible hubo proteínas principalmente implicadas en defensa. A los 12 días, en la interacción compatible los genes relacionados con el ARN y la pared celular se sobreexpresaban principalmente, y se reprimían los de proteínas y transporte, mientras que en la incompatible se sobreexpresaron los relacionados con el estrés, el metabolismo secundario y el de hormonas y se reprimieron los de ARN, señalización, metabolismo de hormonas y proteínas. Por otra parte, la técnica de silenciamiento génico VIGS reveló que el gen TGA 1a está implicado en la resistencia mediada por el gen MiG1a M. javanica. Así mismo se evaluó el transcriptoma de todo el sistema radical de la variedad susceptible tras la aplicación del inductor BTH, y se comparó con el transcriptoma de la resistente. Los resultados obtenidos revelan que el tratamiento con BTH en hojas de Moneymaker ejerce notables cambios transcripcionales en la raíz; entre otros, la activación de factores de transcripción Myb (THM16 y THM 27) y del gen ACC oxidasa. Las respuestas inducidas por el BTH parecen ser de corta duración ya que no hubo transcritos diferenciales comunes a las dos fases temporales de la infección comparadas (2 y 12 dpi). El transcriptoma de Moneymaker tratada con BTH resultó ser muy diferente al de la variedad resistente Motelle, ambas sin infectar, destacando la mayor expresión en el primero del gen LeEXP2, una expansina relacionada con defensa frente a nematodos. Las respuestas inducidas por los nematodos en Moneymaker-BTH también fueron muy distintas a las observadas previamente en la interacción incompatible mediada por MiG1, pues sólo se detectaron 2 genes sobreexpresados comunes a ambos eventos. Finalmente, se abordó el estudio de la expresión diferencial de genes que codifican PRXs y su relación con la resistencia en la interacción tomate/M. javanica. Para ello, se realizó en primer lugar el estudio del análisis del transcriptoma de tomate de la interacción compatible, obtenido en un estudio previo a partir de tejido radical infectado en distintos tiempos de infección. Se han identificado 16 unigenes de PRXs con expresión diferencial de los cuales 15 se relacionan por primera vez con la respuesta a la infección de nematodos. La mayoría de los genes de PRXs identificados, 11, aparecen fuertemente reprimidos en el sitio de alimentación, en las células gigantes (CG). Dada la implicación directa de las PRXs en la activación del mecanismo de producción de ROS, la supresión de la expresión génica local de genes de PRXs en el sitio de establecimiento y alimentación pone de manifiesto la capacidad del nematodo para modular y superar la respuesta de defensa de la planta de tomate en la interacción compatible. Posteriormente, de estos genes identificados se han elegido 4: SGN-U143455, SGN-U143841 y SGN-U144042 reprimidos en el sitio de infección y SGN-U144671 inducido, cuyos cambios de expresión se han determinado mediante análisis por qRT-PCR y de hibridación in situ en dos tiempos de infección (2 dpi y 4 dpi) y en distintos tejidos radicales de tomate resistente y susceptible. Los patrones de expresión obtenidos demuestran que en la interacción incompatible la transcripción global de los 4 genes estudiados se dispara en la etapa más temprana en el sitio de infección, detectándose la localización in situ de transcritos en el citoplasma de las células corticales de la zona meristemática afectadas por el nematodo. A 4 dpi se observó que los niveles de expresión en el sitio de infección cambian de tendencia y los genes SGN-U144671 y SGN-U144042 se reprimen significativamente. Los diferentes perfiles de expresión de los genes PRXs en los dos tiempos de infección sugieren que su inducción en las primeras 48 horas es crucial para la respuesta de defensa relacionada con la resistencia frente a la invasión del nematodo. Por último, al analizar el tejido radical sistémico, se detectó una inducción significativa de la expresión en la fase más tardía de la infección del gen SGN-U144042 en el genotipo susceptible y del SGN-U143841 en ambos genotipos. En este estudio se describe por primera vez la inducción de la expresión sistémica de genes de PRXs en tomate durante la interacción compatible e incompatible con M. javanica lo que sugiere su posible implicación funcional en la respuesta de defensa SAR activada por la infección previa del nematodo. ABSTRACT Plants defend themselves from pathogens by constitutive and/or induced defenses. A common type of induced defense involves plant resistance genes (R), which are normally activated in response to attack by specific pathogen species. Typically, a specific plant R protein recognizes a specific pathogen avirulence (avr) compound. This initiates a complex biochemical cascade inside the plant that results in synthesis of antipathogen compounds. This response can involve chemical signaling, transcription, translation, enzymes and metabolism, and numerous plant hormones such as salicylic acid (SA), jasmonates (JA) and ethylene (ET). Induced plant defense can also activate Class III peroxidases (PRXs), which produce reactive oxygen species (ROS), regulate extracellular H2O2, and play additional roles in plant defense. R-gene activation and the resulting induced defense often remain localized in the specific tissues invaded by the plant pathogen. In other cases, the plant responds by signaling the entire plant to produce defense compounds (systemic induction). Plant defense can also be induced by the exogenous application of natural or synthetic elicitors, such as benzol-(1,2,3)-thiadiazole-7-carbothionic acid. There is much current scientific interest in R-genes and elicitors, because they might be manipulated to increase agricultural yield. Scientists also are interested in systemic induction, because this allows the entire plant to be defended. In this context, one of the aims of this investigation was the transcriptoma analysis of the root systems of two varieties of tomato, the resistant variety (Motelle) that carrier MiG1 and the susceptible (Moneymaker) without MiG1, before and after infection with M. javanica. The overexpression was more pronounced in the transcriptoma of the resistant variety compared with susceptible, before infection, including the MiG1 gene, PrG1 (or P4) genes, LEJA1 and ER24, indicating that hormone SA, JA and ET are active in the resistant variety. Moreover, GA hormone presents an opposite behavior. M. javanica infection causes significant transcriptional changes in both compatible (Moneymaker-M. javanica) and incompatible (Motelle-M. javanica) interaction. In the incompatible transcriptome root system, was notably reduced the expression of the MiG1 gene, and a continuity in the expression of the hormonal pathways of SA and JA. In other hand, transcriptional profile changes during compatible interaction were associated with nematode infection. The large differences between the two times point infection considered (2 dpi and 12 dpi) indicates an overexpression of cell wall related genes in the first phase, and conversely an overexpression of RNA genes in the late phase. Transcriptoma analysis of incompatible interaction, although there were differences between the two phases, should be highlighted the common differential gene expression: loxA and mcpi (overexpressed) and loxD gene (suppressed), as they are involved in defenses in other plant-pathogen interactions. The VIGS tool has provided evidence that TGA 1a is involved in MiG1 mediated resistance to M. javanica. Likewise, the systemic application of BTH was assessed and compared with susceptible and resistant variety. Root system transcriptoma of BTH treatment on leaves showed the activation of Myb transcription factors (THM16 and THM27), the ACC oxidase gene. and the LeEXP2 gene, encoding for an expansin enzyme, related with defense against nematodes. The activation appears to be reduced by subsequent infection and establishment of nematodes. To assist in elucidate the role of tomato PRXs in plant defence against M. javanica, the transcriptome obtained previously from isolated giant cells (GC) and galls at 3 and 7 dpi from the compatible interaction was analysed. A total of 18 different probes corresponding to 16 PRX encoding genes were differentially expressed in infection site compared to the control uninfected root tissues. Most part of them (11) was down-regulated. These results yielded a first insight on 15 of the PRX genes responding to tomato–Meloidogyne interaction and confirm that repression of PRX genes might be crucial for feeding site formation at the initial stages of infection. To study the involvement of PRX genes in resistance response, four genes have been selected: SGN-U143455, SGN-U143841 and SGN-U144042 consistently down-regulated and SGN-U144671 consistently up-regulated at infection site in compatible interaction. The expression changes were determined by qRT-PCR and in situ location at 2 dpi and 4 dpi, and in different root tissues of resistant and susceptible plants. Early upon infection (2 dpi), the transcripts levels of the four genes were strongly increased in infected tissue of resistant genotype. In situ hybridization showed transcript accumulation of them in meristem cortical cells, where the nematode made injury. The results obtained provide strong evidence that early induction of PRX genes is important for defence response of the resistance against nematode invasion. Moreover, the induction patterns of SGN-U144042 gene observed at 4 dpi in distal noninfected root tissue into the susceptible genotype and of SGN-U143841 gene in both genotypes suggest a potential involvement of PRX in the systemic defence response.
Resumo:
En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.
Resumo:
Los procesos de biofiltración por carbón activo biológico se han utilizado desde hace décadas, primeramente en Europa y después en Norte América, sin embargo no hay parámetros de diseño y operación específicos que se puedan utilizar de guía para la biofiltración. Además, el factor coste a la hora de elegir el carbón activo como medio de filtración impacta en el presupuesto, debido al elevado coste de inversión y de regeneración. A la hora de diseñar y operar filtros de carbón activo los requisitos que comúnmente se buscan son eliminar materia orgánica, olor, y sabor de agua. Dentro de la eliminación de materia orgánica se precisa la eliminación necesaria para evitar subproductos en la desinfección no deseados, y reducir los niveles de carbono orgánico disuelto biodegradable y asimilable a valores que consigan la bioestabilidad del agua producto, a fin de evitar recrecimiento de biofilm en las redes de distribución. El ozono se ha utilizado durante años como un oxidante previo a la biofiltración para reducir el olor, sabor, y color del agua, oxidando la materia orgánica convirtiendo los compuestos no biodegradables y lentamente biodegradables en biodegradables, consiguiendo que puedan ser posteriormente eliminados biológicamente en los filtros de carbón activo. Sin embargo la inestabilidad del ozono en el agua hace que se produzcan ácidos carboxilos, alcoholes y aldehídos, conocidos como subproductos de la desinfección. Con esta tesis se pretende dar respuesta principalmente a los siguientes objetivos: análisis de parámetros requeridos para el diseño de los filtros de carbón activo biológicos, necesidades de ozonización previa a la filtración, y comportamiento de la biofiltración en un sistema compuesto de coagulación sobre un filtro de carbón activo biológico. Los resultados obtenidos muestran que la biofiltración es un proceso que encaja perfectamente con los parámetros de diseño de plantas con filtración convencional. Aunque la capacidad de eliminación de materia orgánica se reduce a medida que el filtro se satura y entra en la fase biológica, la biodegradación en esta fase se mantienen estable y perdura a lo lago de los meses sin preocupaciones por la regeneración del carbón. Los valores de carbono orgánico disuelto biodegradable se mantienen por debajo de los marcados en la literatura existente para agua bioestable, lo que hace innecesaria la dosificación de ozono previa a la biofiltración. La adición de la coagulación con la corrección de pH sobre el carbón activo consigue una mejora en la reducción de la materia orgánica, sin afectar a la biodegradación del carbón activo, cumpliendo también con los requerimientos de turbidez a la salida de filtración. Lo que plantea importantes ventajas para el proceso. Granular activated carbon filters have been used for many years to treat and produce drinking water using the adsorption capacity of carbon, replacing it once the carbon lost its adsorption capacity and became saturated. On the other hand, biological activated carbon filters have been studied for decades, firstly in Europe and subsequently in North America, nevertheless are no generally accepted design and operational parameters documented to be used as design guidance for biofiltration. Perhaps this is because of the cost factor; to choose activated carbon as a filtration media requires a significant investment due to the high capital and regeneration costs. When activated carbon filters are typically required it is for the reduction of an organic load, removal of colour, taste and / or odour. In terms of organic matter reduction, the primary aim is to achieve as much removal as possible to reduce or avoid the introduction of disinfection by products, the required removal in biodegradable dissolved organic carbon and assimilable organic carbon to produce a biologically stable potable water which prohibits the regrowth of biofilm in the distribution systems. The ozone has historically been used as an oxidant to reduce colour, taste and odour by oxidizing the organic matter and increasing the biodegradability of the organic matter, enhancing the effectiveness of organic removal in downstream biological activated carbon filters. Unfortunately, ozone is unstable in water and reacts with organic matter producing carboxylic acids, alcohols, and aldehydes, known as disinfection by products. This thesis has the following objectives: determination of the required parameters for the design of the biological activated filters, the requirement of ozonization as a pre-treatment for the biological activated filters, and a performance assessment of biofiltration when coagulation is applied as a pretreatment for biological activated carbon filters. The results show that the process design parameters of biofiltration are compatible with those of conventional filtration. The organic matter removal reduces its effectiveness as soon as the filter is saturated and the biological stage starts, but the biodegradation continues steadily and lasts for a long period of time without the need of carbon regeneration. The removal of the biodegradable dissolved organic carbon is enough to produce a biostable water according to the values shown on the existing literature; therefore ozone is not required prior to the filtration. Furthermore, the addition of coagulant and pH control before the biological activated carbon filter achieves a additional removal of organic matter, without affecting the biodegradation that occurs in the activated carbon whilst also complying with the required turbidity removal.
Resumo:
Phaseolus vulgaris L. (frijol común o judía) es una leguminosa de gran demanda para la nutrición humana y un producto agrícola muy importante. Sin embargo, la producción de frijol se ve limitada por presiones ambientales como la sequía. En México, el 85% de la cosecha de frijol se produce en la temporada de primavera-verano, principalmente en las regiones del altiplano semiárido con una precipitación anual entre 250 y 400 mm. A pesar del implemento de tecnología en el campo, los factores naturales impiden al agricultor llegar a los rendimientos deseados. El Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias (INIFAP), como instituto de investigación gubernamental en México, tiene como objetivo la mejora de cultivos estratégicos, uno de ellos, P. vulgaris. Los estudios en relación a la sequía se enfocan especialmente en la selección de genotipos tolerantes, los cuales son sometidos en condiciones de estrés y monitoreando parámetros como el rendimiento y peso de semilla, además de algunos indicadores tales como índice de cosecha. El resultado de estos trabajos ha sido la obtención de variedades con mayor tolerancia a la sequía, tales como Pinto Villa y Pinto Saltillo. En los últimos años se ha avanzado notablemente en el conocimiento de las bases moleculares en las respuestas de las plantas al estrés. De acuerdo a diversos estudios se ha demostrado que las plantas bajo estrés por sequía experimentan cambios en la expresión de genes involucrados en la señalización, regulación de la transcripción y la traducción, transporte de agua y la función directa en la protección celular. También se ha observado que el déficit de agua es causado por las temperaturas extremas y la alta concentración de sales, por lo que al nivel molecular, las respuestas al estrés tienen puntos de especificidad y puntos de entrecruzamiento. La sequía puede generar estreses secundarios, tales como el nutricional, oxidativo y osmótico. Sin embargo, es necesario identificar y caracterizar muchos de los componentes involucrados en las respuestas al déficit hídrico, la caracterización de estos genes permitirá tener una mejor comprensión de los mecanismos bioquímicos y fisiológicos involucrados en la tolerancia al estrés. Actualmente, con el apoyo de la biología molecular se han identificado algunos genes que otorgan ventajas para la adaptación a ambientes desfavorables. Por lo que el objetivo del presente trabajo es identificar marcadores genéticos asociados a rasgos fenotípicos con énfasis a la tolerancia a estrés hídrico en P. vulgaris. Una vez establecidos los marcadores asociados al estrés hídrico, es factible considerar su uso para la selección asistida por marcadores en líneas o variedades de frijol de interés para los mejoradores. Se evaluaron 282 familias F3:5 derivadas de la cruza entre los cultivares Pinto Villa y Pinto Saltillo. Las familias se sembraron bajo un diseño simple de látice 17x17, el experimento se llevo acabo en el ciclo primavera-verano del 2010 y 2011, y otoñoinvierno de 2010 en el Campo Experimental Bajío del INIFAP con dos repeticiones para cada tratamiento de humedad (riego completo y sequía terminal). En todos los genotipos se realizó el fenotipado (variables fenotípicas) y el genotipado a través de marcadores moleculares. Los análisis estadísticos se basaron en el análisis de componentes principales (Eigen Analysis Selection Index Method, ESIM), la asociación entre marcadores SNP y el fenotipado (paquete SNPassoc para R) y el análisis de varianza (ANOVA). Los valores ESIM mostraron que las variables de Rendimiento, Días a floración, Días a madurez fisiológica e Índice de cosecha fueron sobresalientes en sequía terminal, por lo que se sugieren tomarse en consideración para los estudios de sequía en P. vulgaris como monitores de evaluación a la resistencia. Se identificaron nueve familias sobresalieron por sus valores ESIM (PV/PS6, 22, 131, 137, 149, 154, 201, 236 y 273), además de presentar valores superiores para el rendimiento en comparación con los parentales. Estos genotipos son candidatos interesantes para realizar estudios de identificación de loci asociados con la respuesta al estrés, y como potenciales parentales en el desarrollo de nuevas variedades de frijol. En los análisis de asociación SNPassoc se identificaron 83 SNPs significativos (p<0,0003) asociados a los rasgos fenotípicos, obteniendo un total de 222 asociaciones, de las cuales predomina el modelo genético de codominancia para las variables Días a floración, Periodo reproductivo y Biomasa total. Treinta y siete SNPs se identificaron a diferentes funciones biológicas a través del análisis de anotación funcional, de los cuales 12 SNPs (9, 18, 28, 39, 61, 69, 80, 106, 115, 128, 136 y 142) sobresalen por su asociación al fenotipado, y cuya anotación funcional indica que se encuentran en genes relacionados a la tolerancia a la sequía, tales como la actividad kinasa, actividad metabólica del almidón, carbohidratos y prolina, respuesta al estrés oxidativo, así como en los genes LEA y posibles factores de transcripción. En el caso de los análisis ANOVA, se identificaron 72 asociaciones entre los SNPs y las variables fenotípicas (F< 3,94E-04). Las 72 asociaciones corresponden a 30 SNPs y 7 variables fenotípicas, de las que predomina Peso de 100 semillas y Periodo reproductivo. Para los rasgos de Rendimiento, Índice de cosecha y Días a madurez fisiológica se presentaron asociaciones con seis SNPs (17, 34, 37, 50, 93 y 107), de los cuales, a los SNP37 y SNP107 fueron identificados a la anotación biológica de protein binding. Por otro lado, los SNP106 y SNP128 asociados al Periodo reproductivo, son genes con actividad kinasa y actividad metabólica del almidón, respectivamente. Para los marcadores tipo AFLP, se identificaron 271 asociaciones (F<2,34E-04). Las asociaciones corresponden a 86 AFLPs con todas las variables fenotípicas evaluadas, de las que predomina peso de 100 semillas, Días a floración y Periodo reproductivo. Debido a que los en los AFLPs no es posible determinar su anotación biológica, se proponen como marcadores potenciales relacionados a la resistencia a la sequía en frijol. Los AFLPs candidatos requieren más estudios tales como la secuenciación de los alelos respectivos, así como la identificación de éstas secuencias en el genoma de referencia y su anotación biológica, entre otros análisis, de esta manera podríamos establecer aquellos marcadores candidatos a la validación para la selección asistida. El presente trabajo propone tanto genotipos como marcadores genéticos, que deben ser validados para ser utilizados en el programa de mejoramiento de P. vulgaris, con el objetivo de desarrollar nuevas líneas o variedades tolerantes a la sequía. ABSTRACT Phaseolus vulgaris L. (common bean or judia) is a legume of great demand for human consumption and an important agricultural product. However, the common bean production is limited by environmental stresses, such as drought. In Mexico, 85% of the common bean crop is produced in the spring-summer season mainly in semiarid highland regions with a rainfall between 250 and 400 mm per year. In spite of the improvement of crop technology, the natural factors hamper getting an optimal yield. The National Institute for Forestry, Agriculture and Livestock (INIFAP) is a government research institute from Mexico, whose main objective is the genetic breeding of strategic crops, like P. vulgaris L. The drought tolerance studies particularly focus on the selection of bean tolerant genotypes, which are subjected to stress conditions, by means of monitoring parameters such as yield and seed weight, plus some agronomic indicators such as harvest index. The results of these works have led to obtain cultivars with higher drought tolerance such as Pinto Villa and Pinto Saltillo. Significant achievements have been recently made in understanding the molecular basis of stress plant responses. Several studies have shown that plants under drought stress present changes in gene expression related to cell signalling, transcriptional and translational regulation, water transport and cell protection. In addition, it has been observed that the extreme temperatures and high salt concentrations can cause a water deficiency so, at the molecular level, stress responses have specific and crossover points. The drought can cause secondary stresses, such as nutritional, oxidative and osmotic stress. It is required the identification of more components involved in the response to water deficit, the characterization of these genes will allow a better understanding of the biochemical and physiological mechanisms involved in stress tolerance. Currently, with the support of molecular biology techniques, some genes that confer an advantage for the crop adaptation to unfavourable environments have been identified. The objective of this study is to identify genetic markers associated with phenotypic traits with emphasis on water stress tolerance in P. vulgaris. The establishment of molecular markers linked to drought tolerance would make possible their use for marker-assisted selection in bean breeding programs. Two hundred and eighty two F3:5 families derived from a cross between the drought resistant cultivars Pinto Villa and Pinto Saltillo were evaluated. The families were sowed under a 17x17 simple lattice design. The experiment was conducted between spring-summer seasons in 2010 and 2011, and autumn-winter seasons in 2010 at the Bajio Experimental Station of INIFAP with two treatments (full irrigation and terminal drought). All families were phenotyped and genotyped using molecular markers. Statistical analysis was based on principal component analysis (Eigen Analysis Selection Index Method, ESIM), association analysis between SNP markers and phenotype (SNPassoc package R) and analysis of variance (ANOVA). The ESIM values showed that seed yield, days to flowering, days to physiological maturity and harvest index were outstanding traits in terminal drought treatment, so they could be considered as suitable parameters for drought-tolerance evaluation in P. vulgaris. Nine outstanding families for the ESIM values were identified (PV/PS6, 22, 131, 137, 149, 154, 201, 236 and 273), in addition, these families showed higher values for seed yield compared to the parental cultivars. These families are promising candidates for studies focused on the identification of loci associated to the stress response, and as potential parental cultivars for the development of new varieties of common bean. In the SNPassoc analysis, 83 SNPs were found significantly associated (p<0.0003) with phenotypic traits, obtaining a total of 222 associations, most of which involved the traits days to flowering, reproductive period and total biomass under a codominant genetic model. The functional annotation analysis showed 37 SNPs with different biological functions, 12 of them (9, 18, 28, 39, 61, 69, 80, 106, 115, 128, 136 and 142) stand out by their association to phenotype. The functional annotation suggested a connection with genes related to drought tolerance, such as kinase activity, starch, carbohydrates and proline metabolic processes, responses to oxidative stress, as well as LEA genes and putative transcription factors. In the ANOVA analysis, 72 associations between SNPs and phenotypic traits (F<3.94E- 04) were identified. All of these associations corresponded to 30 SNPs markers and seven phenotypic traits. Weight of 100 seeds and reproductive period were the traits with more associations. Seed yield, harvest index and days to physiological maturity were associated to six SNPs (17, 34, 37, 50, 93 and 107), the SNP37 and SNP107 were identified as located in protein binding genes. The SNP106 and SNP128 were associated with the reproductive period and belonged to genes with kinase activity and genes related to starch metabolic process, respectively. In the case of AFLP markers, 271 associations (F<2.34E-04) were identified. The associations involved 86 AFLPs and all phenotypic traits, being the most frequently associated weight of 100 seeds, days to flowering and reproductive period. Even though it is not possible to perform a functional annotation for AFLP markers, they are proposed as potential markers related to drought resistance in common bean. AFLPs candidates require additional studies such as the sequencing of the respective alleles, identification of these sequences in the reference genome and gene annotation, before their use in marker assisted selection. This work, although requires further validation, proposes both genotypes and genetic markers that could be used in breeding programs of P. vulgaris in order to develop new lines or cultivars with enhanced drought-tolerance.
Resumo:
Este trabajo se ha centrado en la búsqueda y análisis de técnicas de saneamiento y depuración que proporcionen soluciones a poblaciones pequeñas, que por su situación económica o de desarrollo, carecen de estos servicios básicos. Es bien conocido los problemas que genera la falta de acceso al saneamiento básico en contextos de subdesarrollo, agravado en numerosos casos, por los incrementos en la dotación de agua sin introducir las infraestructuras para el tratamiento de las aguas residuales. Esta situación incide directamente sobre la salud de las personas y del medioambiente. Afortunadamente existen Organismos Internacionales y Agencias de Desarrollo y de Medioambiente, que intervienen directamente en estos temas. Los problemas no sólo se presentan en los llamados países en vías de desarrollo, sino que se ha comprobado que también afecta a poblaciones pequeñas con escasos recursos, del mundo más desarrollado. Muchas han sido las técnicas utilizadas con gran éxito en programas de cooperación, pero algunas han fracasado por pérdida de funcionalidad, por errores de diseño, por rápido deterioro de los materiales, o simplemente por falta de adaptabilidad al terreno o no previsión de controles y mantenimiento. La solución a estos eventos pasa por la innovación tanto tecnológica como de gestión, sin olvidar la componente socioeconómica y cultural. Tomar conciencia de un buen diseño adaptado a las características del terreno y de la población, evitaría fracasos por colapso, por falta de mantenimiento, de financiación etc. Por otra parte, se considera necesaria la implementación de programas educativos que incluyan mejoras en los hábitos higiénicos y el conocimiento de las infraestructuras que permitan a la población de destino, adquirir una formación sobre las propias instalaciones, su uso, su mantenimiento y conservación. El desarrollo y mejora de las técnicas de saneamiento y depuración requiere una continuidad en las investigaciones que facilite la adaptación de las instalaciones ya existentes a las diferentes coyunturas que puedan presentarse, garantizando su funcionamiento a largo plazo. Las técnicas denominadas “no convencionales” se caracterizan por ser soluciones económicas y sostenibles, que en algunos casos, requieren poco mantenimiento e incluso éste puede realizarse por personal no especializado, esto es, por los propios usuarios del servicio. Concretamente en el presente trabajo se ha llevado a cabo una revisión general de las tipologías conocidas, tanto convencionales como no convencionales y de su posible aplicación en función de la población de destino, con especial incidencia en las poblaciones más desfavorecidas. Una vez realizada, se han seleccionado las técnicas de saneamiento y depuración no convencionales por el interés personal en las poblaciones con mayores dificultades socioeconómicas. Se han estudiado distintas situaciones en diferentes países y contextos Nicaragua, Ecuador, India y España. Es en esta última, donde se han tenido más facilidades para la obtención de datos y análisis de los mismos, concretamente de la instalación del municipio de Fabara en la provincia de Zaragoza, situado en el Bajo Aragón. ABSTRACT The focus of this project lies on the research and analysis of sanitation and waste water treatment techniques able to provide solutions to small settlements which lack such basic services out of economic or underdevelopment reasons. The problems generated by the absence of access to basic sanitation services in underdevelopment contexts are well known, and many cases can be found where increase of water provision doesn’t involve installation of waste water treatment infrastructures. This situation has a direct impact on people’s health and also on the environment. Fortunately, there are International Organizations and Development Agencies which act directly on these matters. These problems don’t only occur in so called developing countries, as it has been confirmed that small settlements with scarce resources in the more developed world can also be affected. Many techniques have been successfully used in cooperation programs, but also some of them have failed due to loss of functionality, design mistakes, rapid material deterioration, or simply site inadequacy or lack of control and maintenance precautions. The solution to these incidents requires technological as well as management innovation, regarding for all cases the socioeconomic and cultural factors. The awareness of a good design, adapted to the site and population characteristics, would prevent from failures due to collapse, lack of maintenance, funding, etc. Furthermore, the implementation of education programs for improving hygienic habits and for transmitting the understanding of the infrastructures is considered necessary for allowing the aimed population to gain proper knowledge on their own infrastructure, its use, maintenance and preservation. The improvement of sanitation and waste water treatment techniques requires a continuous process of investigation, in order to adapt the existing infrastructure to the different situations that may come up, being able to ensure its long-term functioning. The so called non conventional techniques are characterized by being economic and sustainable solutions, requiring in some cases low maintenance, conducted even by non specialized personnel, that is, by the users themselves. In the present project a general overview of the already developed typologies has been carried out, taking into account the conventional as well as the non conven tional techniques and their possible application according to the aimed population, regarding especially the most underprivileged settlements. Thereupon, out of interest for the settlements with most socioeconomic difficulties, the non conventional sanitation and waste water techniques have been selected. A variety of situations in different countries and contexts has been examined, specifically in Nicaragua, Ecuador, India and Spain. The latest has proven easier for data collection and analysis, focusing finally on the existing infrastructure in the village of Fabara, province of Zaragoza, in the Bajo Aragón.
Resumo:
La legislación existente en nuestro país, el Real Decreto 1620/200, de 7 de diciembre, por el que se establece el régimen jurídico de la reutilización de las aguas depuradas, no ha sido modificada en estos últimos años a pesar de las opiniones de expertos y operadores en el sentido que merece una revisión y mejora. Por ello se ha realizado un análisis pormenorizado de toda la legislación existente a nivel país y de otros países con amplia experiencia en reutilización para proponer mejoras o cambios en base a la información recopilada, tanto en estudios específicos de investigación como de los datos obtenidos de operadores y/o explotadores de estaciones regeneradoras de aguas residuales en España. Del estudio surgen algunas propuestas claras que se ponen a consideración de las autoridades. Se ha comprobado que no existen estudios suficientes relacionados a tipos de controles en estaciones de tratamiento terciario de aguas residuales en cada uno de los pasos de la línea de proceso, que permitan conocer las garantías de funcionamiento de dichas etapas y del proceso en su conjunto. De éste modo se podrían analizar todas las etapas por separado y comprobar si el funcionamiento en las condiciones previstas de diseño es apropiado, o si es posible mejorar la eficiencia a partir de estos datos intermedios, en lugar de los controles normales efectuados en la entrada y la salida realizados por los explotadores de las plantas existentes en el país. Existen, sin embargo, investigaciones y datos de casi todas las tecnologías existentes en el mercado relacionadas con la regeneración, lo cual ha permitido identificar sus ventajas e inconvenientes. La aplicación de un proceso de APPCC (Análisis de Peligros y Puntos de Control Críticos) a una planta existente ha permitido comprobar que es una herramienta práctica que permite gestionar la seguridad de un proceso de producción industrial como es el caso de un sistema de reutilización, por lo que se considera conveniente recomendar su aplicación siempre que sea posible. The existing legislation in our country, Royal Decree 1620/2007, of 7th December, establishing the legal regime for the reuse of treated water has not been modified in recent years despite expert and operators opinions in the sense that it deserves review and improvement. Therefore it has been conducted a detailed analysis of all existing legislation at country level and of other countries with extensive experience in water reuse to propose improvements or changes based on the information gathered both in specific research studies and the data obtained from operators and/or operators of regenerative sewage stations in Spain. As a result of these studies, some clear proposals are made to be considered by the authorities. It has been found that there are not enough studies related to types of controls in tertiary wastewater treatment plants, in each step of the process line, that provide insight into the performance guarantees of the mention stages and of the whole process. In this manner all stages could be analyzed separately and check if the operation in the design conditions envisaged is appropriate, or whether it is possible to improve efficiency taking in account these intermediate data, instead to the normal checks at entry and exit carried out by operators in existing plants in the country. There are, however, research and data from almost all technologies existing in the market related to regeneration, which has allowed identified its advantages and disadvantages. The application of a process of HACCP (hazard analysis and critical control points) to an existing plant has shown that it is a practical tool for managing the security of a process of industrial production as is the case of a water reuse system, so it is considered appropriate to recommend application whenever possible.
Resumo:
La reutilización de efluentes depurados siempre ha sido una opción en lugares con déficit coyuntural o estructural de recursos hídricos, se haya o no procedido a la regulación y planificación de esta práctica. La necesidad se crea a partir de las demandas de una zona, normalmente riego agrícola, que ven un mejor desarrollo de su actividad por contar con este recurso. España es el país de la UE que más caudal reutiliza, y está dentro de los diez primeros a nivel mundial. La regulación de esta práctica por el RD 1620/2007, ayudó a incorporar la reutilización de efluentes depurados a la planificación hidrológica como parte de los programas de medidas, con objeto de mitigar presiones, como son las extracciones de agua superficial y subterránea, o mejoras medioambientales evitando un vertido. El objeto de este trabajo es conocer la situación de la reutilización de efluentes depurados en España, los diferentes escenarios y planteamientos de esta actividad, el desarrollo del marco normativo y su aplicabilidad, junto a los tratamientos que permiten alcanzar los límites de calidad establecidos en la normativa vigente, en función de los distintos usos. Además, se aporta un análisis de costes de las distintas unidades de tratamiento y tipologías de líneas de regeneración, tanto de las utilizadas después de un tratamiento secundario como de otras opciones de depuración, como son los biorreactores de membrana (MBRs). Para el desarrollo de estos objetivos, en primer lugar, se aborda el conocimiento de la situación de la reutilización en España a través de una base de datos diseñada para cubrir todos los aspectos de esta actividad: datos de la estación depuradora de aguas residuales (EDAR), de la estación regeneradora (ERA), caudales depurados, reutilizados, volúmenes utilizados y ubicación de los distintos usos, tipos de líneas de tratamiento, calidades del agua reutilizada, etc. Las principales fuentes de información son las Confederaciones Hidrográficas (CCHH) a través de las concesiones de uso del agua depurada, las entidades de saneamiento y depuración de las distintas comunidades autónomas (CCAA), ayuntamientos, Planes Hidrológicos de Cuenca (PHC) y visitas a las zonas más emblemáticas. Además, se revisan planes y programas con el fin de realizar una retrospectiva de cómo se ha ido consolidando y desarrollando esta práctica en las distintas zonas de la geografía española. Se han inventariado 322 sistemas de reutilización y 216 tratamientos de regeneración siendo el más extendido la filtración mediante filtro arena seguido de una desinfección mediante hipoclorito, aunque este tratamiento se ha ido sustituyendo por un físico-químico con decantación lamelar, filtro de arena y radiación ultravioleta, tratamiento de regeneración convencional (TRC), y otros tratamientos que pueden incluir membranas, tratamientos de regeneración avanzados (TRA), con dosificación de hipoclorito como desinfección residual, para adaptarse al actual marco normativo. El uso más extendido es el agrícola con el 70% del caudal total reutilizado, estimado en 408 hm3, aunque la capacidad de los tratamientos de regeneración esperada para 2015, tras el Plan Nacional de Reutilización de Aguas (PNRA), es tres veces superior. Respecto al desarrollo normativo, en las zonas donde la reutilización ha sido pionera, las administraciones competentes han ido desarrollando diferentes recomendaciones de calidad y manejo de este tipo de agua. El uso agrícola, y en zonas turísticas, el riego de campos de golf, fueron los dos primeros usos que tuvieron algún tipo de recomendación incluso reglamentación. Esta situación inicial, sin una normativa a nivel estatal ni recomendaciones europeas, creó cierta incertidumbre en el avance de la reutilización tanto a nivel de concesiones como de planificación. En la actualidad sigue sin existir una normativa internacional para la reutilización y regeneración de efluentes depurados. Las recomendaciones de referencia a nivel mundial, y en concreto para el uso agrícola, son las de la OMS (Organización Mundial de la Salud) publicadas 1989, con sus posteriores revisiones y ampliaciones (OMS, 2006). Esta norma combina tratamientos básicos de depuración y unas buenas prácticas basadas en diferentes niveles de protección para evitar problemas sanitarios. Otra normativa que ha sido referencia en el desarrollo del marco normativo en países donde se realiza esta práctica, son las recomendaciones dadas por la Agencia Medioambiente Estadunidense (USEPA, 2012) o las publicadas por el Estado de California (Título 22, 2001). Estas normas establecen unos indicadores y valores máximos dónde el tratamiento de regeneración es el responsable de la calidad final en función del uso. Durante 2015, la ISO trabajaba en un documento para el uso urbano donde se muestra tanto los posibles parámetros que habría que controlar como la manera de actuar para evitar posibles riesgos. Por otro lado, la Comisión Europea (CE) viene impulsando desde el 2014 la reutilización de aguas depuradas dentro del marco de la Estrategia Común de Implantación de la Directiva Marco del Agua, y fundamentalmente a través del grupo de trabajo de “Programas de medidas”. Para el desarrollo de esta iniciativa se está planteando sacar para 2016 una guía de recomendaciones que podría venir a completar el marco normativo de los distintos Estados Miembros (EM). El Real Decreto 1620/2007, donde se establece el marco jurídico de la reutilización de efluentes depurados, tiende más a la filosofía implantada por la USEPA, aunque la UE parece más partidaria de una gestión del riesgo, donde se establecen unos niveles de tolerancia y unos puntos de control en función de las condiciones socioeconómicas de los distintos Estados, sin entrar a concretar indicadores, valores máximos o tratamientos. Sin embargo, en la normativa estadounidense se indican una serie de tratamientos de regeneración, mientras que, en la española, se hacen recomendaciones a este respecto en una Guía sin validez legal. Por tanto, queda sin regular los procesos para alcanzar estos estándares de calidad, pudiendo ser éstos no apropiados para esta práctica. Es el caso de la desinfección donde el uso de hipoclorito puede generar subproductos indeseables. En la Guía de recomendaciones para la aplicación del RD, publicada por el Ministerio de Agricultura y Medioambiente (MAGRAMA) en 2010, se aclaran cuestiones frecuentes sobre la aplicación del RD, prescripciones técnicas básicas para los sistemas de reutilización, y buenas prácticas en función del uso. Aun así, el RD sigue teniendo deficiencias en su aplicación siendo necesaria una revisión de la misma, como en las frecuencias de muestreo incluso la omisión de algunos parámetros como huevos de nematodos que se ha demostrado ser inexistentes tras un tratamiento de regeneración convencional. En este sentido, existe una tendencia a nivel mundial a reutilizar las aguas con fines de abastecimiento, incluir indicadores de presencia de virus o protozoos, o incluir ciertas tecnologías como las membranas u oxidaciones avanzadas para afrontar temas como los contaminantes emergentes. Otro de los objetivos de este trabajo es el estudio de tipologías de tratamiento en función de los usos establecidos en el RD 1620/2007 y sus costes asociados, siendo base de lo establecido a este respecto en la Guía y PNRA anteriormente indicados. Las tipologías de tratamiento propuestas se dividen en líneas con capacidad de desalar y las que no cuentan con una unidad de desalación de aguas salobres de ósmosis inversa o electrodiálisis reversible. Se realiza esta división al tener actuaciones en zonas costeras donde el agua de mar entra en los colectores, adquiriendo el agua residual un contenido en sales que es limitante en algunos usos. Para desarrollar este objetivo se han estudiado las unidades de tratamiento más implantadas en ERAs españolas en cuanto a fiabilidad para conseguir determinada calidad y coste, tanto de implantación como de explotación. El TRC, tiene un coste de implantación de 28 a 48 €.m-3.d y de explotación de 0,06 a 0,09 €. m-3, mientras que, si se precisara desalar, este coste se multiplica por diez en la implantación y por cinco en la explotación. En caso de los usos que requieren de TRA, como los domiciliarios o algunos industriales, los costes serían de 185 a 398 €.m-3.d en implantación y de 0,14 a 0,20 €.m-3 en explotación. En la selección de tecnologías de regeneración, la capacidad del tratamiento en relación al coste es un indicador fundamental. Este trabajo aporta curvas de tendencia coste-capacidad que sirven de herramienta de selección frente a otros tratamientos de regeneración de reciente implantación como son los MBR, u otros como la desalación de agua de mar o los trasvases entre cuencas dentro de la planificación hidrológica. En España, el aumento de las necesidades de agua de alta calidad en zonas con recursos escasos, aumento de zonas sensibles como puntos de captación para potables, zonas de baño o zonas de producción piscícola, y en ocasiones, el escaso terreno disponible para la implantación de nuevas plantas depuradoras (EDARs), han convertido a los MBRs, en una opción dentro del marco de la reutilización de aguas depuradas. En este trabajo, se estudia esta tecnología frente a los TRC y TRA, aportando igualmente curvas de tendencia coste-capacidad, e identificando cuando esta opción tecnológica puede ser más competitiva frente a los otros tratamientos de regeneración. Un MBR es un tratamiento de depuración de fangos activos donde el decantador secundario es sustituido por un sistema de membranas de UF o MF. La calidad del efluente, por tanto, es la misma que el de una EDAR seguida de un TRA. Los MBRs aseguran una calidad del efluente para todos los usos establecidos en el RD, incluso dan un efluente que permite ser directamente tratado por las unidades de desalación de OI o EDR. La implantación de esta tecnología en España ha tenido un crecimiento exponencial, pasando de 13 instalaciones de menos de 5.000 m3. d-1 en el 2006, a más de 55 instalaciones en operación o construcción a finales del 2014, seis de ellas con capacidades por encima de los 15.000 m3. d-1. Los sistemas de filtración en los MBR son los que marcan la operación y diseño de este tipo de instalaciones. El sistema más implantado en España es de membrana de fibra hueca (MFH), sobre todo para instalaciones de gran capacidad, destacando Zenon que cuenta con el 57% de la capacidad total instalada. La segunda casa comercial con mayor número de plantas es Kubota, con membranas de configuración placa plana (MPP), que cuenta con el 30 % de la capacidad total instalada. Existen otras casas comerciales implantadas en MBR españoles como son Toray, Huber, Koch o Microdym. En este documento se realiza la descripción de los sistemas de filtración de todas estas casas comerciales, aportando información de sus características, parámetros de diseño y operación más relevantes. El estudio de 14 MBRs ha posibilitado realizar otro de los objetivos de este trabajo, la estimación de los costes de explotación e implantación de este tipo de sistemas frente a otras alternativas de tratamiento de regeneración. En este estudio han participado activamente ACA y ESAMUR, entidades públicas de saneamiento y depuración de Cataluña y Murcia respectivamente, que cuentan con una amplia experiencia en la explotación de este tipo de sistemas. Este documento expone los problemas de operación encontrados y sus posibles soluciones, tanto en la explotación como en los futuros diseños de este tipo de plantas. El trabajo concluye que los MBRs son una opción más para la reutilización de efluentes depurados, siendo ventajosos en costes, tanto de implantación como de explotación, respecto a EDARs seguidas de TRA en capacidades por encima de los 10.000 m3.d-1. ABSTRACT The reuse of treated effluent has always been an option in places where a situational or structural water deficit exists, whether regulatory and/or planning efforts are completed or not. The need arises from the demand of a sector, commonly agricultural irrigation, which benefits of this new resource. Within the EU, Spain is ahead in the annual volume of reclaimed water, and is among the top ten countries at a global scale. The regulation of this practice through the Royal Decree 1620/2007 has helped to incorporate the water reuse to the hydrological plans as a part of the programme of measures to mitigate pressures such as surface or ground water extraction, or environmental improvements preventing discharges. The object of this study is to gain an overview of the state of the water reuse in Spain, the different scenarios and approaches to this activity, the development of the legal framework and its enforceability, together with the treatments that achieve the quality levels according to the current law, broken down by applications. Additionally, a cost analysis of technologies and regeneration treatment lines for water reclamation is performed, whereas the regeneration treatment is located after a wastewater treatment or other options such as membrane bioreactors (MBR). To develop the abovementioned objectives, the state of water reuse in Spain is studied by means of a database designed to encompass all aspects of the activity: data from the wastewater treatment plants (WWTP), from the water reclamation plants (WRP), the use of reclaimed water, treated water and reclaimed water annual volumes and qualities, facilities and applications, geographic references, technologies, regeneration treatment lines, etc. The main data providers are the River Basin authorities, through the concession or authorization for water reuse, (sanitary and wastewater treatment managers from the territorial governments, local governments, Hydrological Plans of the River Basins and field visits to the main water reuse systems. Additionally, a review of different plans and programmes on wastewater treatment or water reuse is done, aiming to put the development and consolidation process of this activity in the different regions of Spain in perspective. An inventory of 322 reuse systems and 216 regeneration treatments has been gathered on the database, where the most extended regeneration treatment line was sand filtration followed by hypochlorite disinfection, even though recently it is being replaced by physical–chemical treatment with a lamella settling system, depth sand filtration, and a disinfection with ultraviolet radiation and hypochlorite as residual disinfectant, named conventional regeneration treatment (CRT), and another treatment that may include a membrane process, named advanced regeneration treatment (ART), to adapt to legal requirements. Agricultural use is the most extended, accumulating 70% of the reclaimed demand, estimated at 408 hm3, even though the expected total capacity of WRPs for 2015, after the implementation of the National Water Reuse Plan (NWRP) is three times higher. According to the development of the water reuse legal framework, there were pioneer areas where competent authorities developed different quality and use recommendations for this new resource. Agricultural use and golf course irrigation in touristic areas were the first two uses with recommendations and even legislation. The initial lack of common legislation for water reuse at a national or European level created some doubts which affected the implementation of water reuse, both from a planning and a licensing point of view. Currently there is still a lack of common international legislation regarding water reuse, technologies and applications. Regarding agricultural use, the model recommendations at a global scale are those set by the World Health Organization published in 1989, and subsequent reviews and extensions about risk prevention (WHO, 2006). These documents combine wastewater treatments with basic regeneration treatments reinforced by good practices based on different levels of protection to avoid deleterious health effects. Another relevant legal reference for this practices has been the Environmental Protection Agency of the US (USEPA, 2012), or those published by the State of California (Title 22, 2001). These establish indicator targets and maximum thresholds where regeneration treatment lines are responsible for the final quality according to the different uses. During 2015, the ISO has worked on a document aimed at urban use, where the possible parameters to be monitored together with risk prevention have been studied. On the other hand, the European Commission has been promoting the reuse of treated effluents within the Common Implementation Strategy of the Water Framework Directive, mainly through the work of the Programme of Measures Working Group. Within this context, the publication of a recommendation guide during 2016 is intended, as a useful tool to fill in the legal gaps of different Member States on the matter. The Royal Decree 1620/2007, where the water reuse regulation is set, resembles the principles of the USEPA more closely, even though the EU shows a tendency to prioritize risk assessment by establishing tolerance levels and thresholds according to socioeconomic conditions of the different countries, without going into details of indicators, maximum thresholds or treatments. In contrast, in the US law, regeneration treatments are indicated, while in the Spanish legislation, the only recommendations to this respect are compiled in a non-compulsory guide. Therefore, there is no regulation on the different treatment lines used to achieve the required quality standards, giving room for inappropriate practices in this respect. This is the case of disinfection, where the use of hypochlorite may produce harmful byproducts. In the recommendation Guide for the application of the Royal Decree (RD), published by the Ministry of Agriculture and Environment (MAGRAMA) in 2010, clarifications of typical issues that may arise from the application of the RD are given, as well as basic technical parameters to consider in reuse setups, or good practices according to final use. Even so, the RD still presents difficulties in its application and requires a review on issues such as the sampling frequency of current quality parameters or even the omission of nematode eggs indicator, which have been shown to be absent after CRT. In this regard, there is a global tendency to employ water reuse for drinking water, including indicators for the presence of viruses and protozoans, or to include certain technologies such as membranes or advanced oxidation processes to tackle problems like emerging pollutants. Another of the objectives of this study is to provide different regeneration treatment lines to meet the quality requirements established in the RD 1620/2007 broken down by applications, and to estimate establishment and operational costs. This proposal has been based on what is established in the above mentioned Guide and NWRP. The proposed treatment typologies are divided in treatment trains with desalination, like reverse osmosis or reversible electrodialisis, and those that lack this treatment for brackish water. This separation is done due to coastal facilities, where sea water may permeate the collecting pipes, rising salt contents in the wastewater, hence limiting certain uses. To develop this objective a study of the most common treatment units set up in Spanish WRPs is conducted in terms of treatment train reliability to obtain an acceptable relationship between the required quality and the capital and operational costs. The CRT has an establishment cost of 28 to 48 €.m-3.d and an operation cost of 0.06 to 0.09 €.m-3, while, if desalination was required, these costs would increase tenfold for implementation and fivefold for operation. In the cases of uses that require ART, such as residential or certain industrial uses, the costs would be of 185 to 398 €.m-3.d for implementation and of 0.14 to 0.20 €.m-3 for operation. When selecting regeneration treatment lines, the relation between treatment capacity and cost is a paramount indicator. This project provides cost-capacity models for regeneration treatment trains. These may serve as a tool when selecting between different options to fulfill water demands with MBR facilities, or others such as sea water desalination plants or inter-basin water transfer into a water planning framework. In Spain, the requirement for high quality water in areas with low resource availability, the increasing number of sensitive zones, such as drinking water extraction, recreational bathing areas, fish protected areas and the lack of available land to set up new WWTPs, have turned MBRs into a suitable option for water reuse. In this work this technology is analyzed in contrast to CRT and ART, providing cost-capacity models, and identifying when and where this treatment option may outcompete other regeneration treatments. An MBR is an activated sludge treatment where the secondary settling is substituted by a membrane system of UF or MF. The quality of the effluent is, therefore, comparable to that of a WWTP followed by an ART. MBRs ensure a sufficient quality level for the requirements of the different uses established in the RD, even producing an effluent that can be directly treated in OI or EDR processes. The implementation of this technology in Spain has grown exponentially, growing from 13 facilities with less than 5000 m3.d-1 in 2006 to above 55 facilities operating by the end of 2014, 6 of them with capacities over 15000 m3.d-1. The membrane filtration systems for MBR are the ones that set the pace of operation and design of this type of facilities. The most widespread system in Spain is the hollow fiber membrane configuration, especially on high flow capacities, being Zenon commercial technology, which mounts up to 57% of the total installed capacity, the main contributor. The next commercial technology according to plant number is Kubota, which uses flat sheet membrane configuration, which mounts up to 30% of the total installed capacity. Other commercial technologies exist within the Spanish MBR context, such as Toray, Huber, Koch or Microdym. In this document an analysis of all of these membrane filtration systems is done, providing information about their characteristics and relevant design and operation parameters. The study of 14 full scale running MBRs has enabled to pursue another of the objectives of this work: the estimation of the implementation and operation costs of this type of systems in contrast to other regeneration alternatives. Active participation of ACA and ESAMUR, public wastewater treatment and reuse entities of Cataluña and Murcia respectively, has helped attaining this objective. A number of typical operative problems and their possible solutions are discussed, both for operation and plant design purposes. The conclusion of this study is that MBRs are another option to consider for water reuse, being advantageous in terms of both implementation and operational costs, when compared with WWTPs followed by ART, when considering flow capacities above 10000 m3.d-1.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
La presente investigación se presenta como una alternativa para la reducción de la contaminación por nutrientes que produce el vertido de aguas residuales provenientes de núcleos urbanos que acaban en lagos, lagunas o embalses acelerando los procesos de eutrofización de los mismos. El objetivo de esta tesis es analizar la reducción de nutrientes, fundamentalmente nitrógeno, fósforo y potasio, del agua residual doméstica sometida a tratamiento a través de cultivos hidropónicos en un determinado periodo de tiempo, observando a su vez la evolución del cultivo seleccionado. El sistema se diseñó para funcionar en circuito cerrado con el agua residual circulando por entre las raíces de los vegetales estudiados. El cultivo seleccionado fue el “kenaf”, aunque después de mucho tiempo dedicado a la obtención de semillas de “kenaf “por diferentes proveedores, se decidió comenzar un primer ensayo utilizando plantas de aloe vera durante un periodo de un mes de verano. Se procedió a la colocación de plantas en un tubo conteniendo agua residual de una fosa séptica domiciliaria. La reducción de la DBO5 y la DQO fue notable aunque los resultados de la variación de nitratos y fosfatos no fueron concluyentes. Las altas temperaturas alcanzada en esas fechas por el agua circulante, finalmente imposibilitó la continuación del ensayo. Si bien esta primera puesta en marcha no resultó como se esperaba, aportó numerosa información para modificar el planteo del estudio, la forma de llevarlo a cabo y la puesta a punto de la propia instalación. El segundo ensayo se llevó a cabo en otoño con plantas de kenaf obtenidas del ensayo previo en suelo en una parcela piloto en los llanos de Villamartín, en la provincia de Cádiz. Antes de incorporar el agua al sistema hidropónico se analizaron todos los parámetros requeridos por la normativa española del agua para determinar su clasificación como agua residual doméstica. Luego se le dio seguimiento a la variación de los nutrientes, nitrógeno, fósforo y potasio a lo largo de varias semanas para evaluar la efectividad del tratamiento. Las plantas de kenaf continuaron su desarrollo utilizando las sustancias disueltas en el agua residual como única fuente de nutrientes disponible. This research is presented as an alternative to reduce the pollution that wastewater discharges from towns generate when they end in lakes, ponds and reservoirs, by accelerating the eutrophication processes. The objective of this thesis is to analyze the reduction of nutrients, mainly nitrogen, phosphorus and potassium, of domestic wastewater treated through hydroponics crops in a given period of time, noting at the same time the evolution of the selected crop. The system was designed to operate in closed circuit with the wastewater circulating through the roots of the studied plants. The selected crop was "kenaf", although after much time spent in obtaining seeds of "kenaf"by different vendors and the impossibility of achieving its germination; it was decided to start a first test using Aloe Vera plants for a period of one month in the summer. The plants were introduced in the holes of a tube containing septic wastewater. The BOD5 and COD reduction was remarkable though the results of the variation in nitrates and phosphates were inconclusive. High temperatures achieved in those dates by circulating water, eventually precluded the continuation of the test. Although this first implementation was not running as expected, it provided information to modify the proposal of the study, the way to carry it out and the development of the installation itself. The second test was conducted in autumn with kenaf plants obtained from the previous test in a pilot plant in the flatness of Villamartín, province of Cádiz. Before adding the water to the hydroponic system all the parameters required by the Spanish water regulations were analyzed to determine their classification as domestic waste water. Then, the variation of nutrients, nitrogen, phosphorus and potassium was tracking over several weeks to evaluate the effectiveness of the treatment. Kenaf plants continued its development using the substances dissolved in wastewater as sole source of nutrients available.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.
Resumo:
En el estado de Veracruz, al sur de México, se ubican empresas dedicadas a la obtención de etanol a partir de melaza de azúcar de caña. Las más pequeñas, tienen una producción promedio de 20,000 L de alcohol/día. Los efluentes de la producción de etanol incluyen agua de enfriamiento de condensadores, agua del lavado de tanques de fermentación y vinazas, estas últimas son los efluentes más contaminantes en las destilerías, por su concentración de material orgánico biodegradable y no biodegradable. Las vinazas se generan en grandes volúmenes, produciéndose de 12 a 15 litros de vinazas por cada litro de alcohol destilado. Estos efluentes se caracterizan por tener altas temperaturas, pH ácido y una elevada concentración de DQO así como de sólidos totales. La determinación de la biodegradabilidad anaerobia de un agua residual, permite estimar la fracción de DQO que puede ser transformada potencialmente en metano y la DQO recalcitrante que queda en el efluente. Para el desarrollo de una prueba de biodegradabilidad, es importante considerar diversos factores relacionados con la composición del agua a tratar, composición de los lodos y las condiciones bajo las cuales se lleva a cabo la prueba. La digestión anaerobia de aguas residuales industriales es comúnmente usada en todo el mundo, ofrece significativas ventajas para el tratamiento de efluentes altamente cargados. Los sistemas anaerobios de tratamiento de aguas residuales industriales incluyen tecnologías con biopelículas, estos sistemas de tratamiento anaerobio con biopelícula son una tecnología bien establecida para el tratamiento de efluentes industriales. El Reactor de Lecho Fluidizado Inverso Anaerobio (LFI) ha sido diseñado para el tratamiento de aguas residuales de alta carga, teniendo como ventajas el empleo de un soporte que proporciona una gran superficie y un bajo requerimiento de energía para la fluidización del lecho. En el presente trabajo, se lleva a cabo el análisis de un proceso de producción de etanol, identificando a los efluentes que se generan en el mismo. Se encuentra que el efluente final está compuesto principalmente por las vinazas provenientes del proceso de destilación. En la caracterización de las vinazas provenientes del proceso de producción de etanol a partir de melaza de azúcar de caña, se encontraron valores promedio de DQO de 193.35 gDQO/L, para los sólidos totales 109.78 gST/L y pH de 4.64. Así mismo, en esta investigación se llevó a cabo una prueba de biodegradabilidad anaerobia, aplicada a la vinaza proveniente de la producción de etanol. En la caracterización de los lodos empleados en el ensayo se obtiene una Actividad Metanogénica Especifica de 0.14 g DQO/gSSV.d. El porcentaje de remoción de DQO de la vinaza fue de 62.7%, obteniéndose una k igual a 0.031 h-1 y una taza de consumo de sustrato de 1.26 gDQO/d. El rendimiento de metano fue de 0.19 LCH4/g DQOremovida y el porcentaje de biodegradabilidad de 54.1%. El presente trabajo también evalúa el desempeño de un LFI, empleando Extendospher® como soporte y tratando efluentes provenientes de la producción de etanol. El reactor se arrancó en batch y posteriormente se operó en continuo a diferentes Cargas Orgánicas Volumétricas de 0.5, 1.0, 3.3, 6.8 y 10.4 g DQO/L.d. Además, se evaluaron diferentes Tiempos de Residencia Hidráulica de 10, 5 y 1 días. El sistema alcanzó las siguientes eficiencias promedio de remoción de DQO: 81% para la operación en batch; 58, 67, 59 y 50 % para las cargas de 0.5, 1.0, 3.3, 6.8 g DQO/L.d respectivamente. Para la carga de 10.4 g DQO/L.d, la eficiencia promedio de remoción de DQO fue 38%, en esta condición el reactor presentó inestabilidad y disminución del rendimiento de metano. La generación de metano inició hasta los 110 días de operación del reactor a una carga de 1.0 g DQO/L.d. El sistema alcanzó un rendimiento de metano desde 0.15 hasta 0.34 LCH4/g DQO. Durante la operación del reactor a una carga constante de 6.4 g DQO/L.d, y un TRH de 1 día, se alcanzó una eficiencia promedio de remoción de DQO de 52%. In the state of Veracruz, to the south of Mexico, there are located companies dedicated to the production of ethanol from molasses of cane sugar. The smallest, have a average production of 20,000 L ethanol/day. The effluent of production of ethanol include water of condensers, water originated from the cleanliness of tanks of fermentation and vinasses, the above mentioned are more effluent pollutants in the distilleries, for the poor organic matter degradability. The vinasses are generated in high volumes, producing from 12 to 15 L of vinasses per every liter of distilled ethanol. These effluent are characterized by its high temperature, pH acid and a high concentration of DQO as well as high concentration of TS. The determination of the anaerobic degradability of a waste water, it allows to estimate the fraction of DQO that can be transformed potentially into methane and the recalcitrant DQO that stays in the effluent. For the development of degradability test, it is important to consider factors related to the composition of the water to be treated, composition of the sludge and the conditions under which the test is carried out. The anaerobic digestion of industrial wastes water is used commonly in the whole world, it offers significant advantages for the treatment of effluent highly loaded. The anaerobic treatment of industrial wastes water include technologies with biofilms, this anaerobic treatment whit biofilms systems, is a well-established technology for treatment of industrial effluents. The Anaerobic Inverse Fluidized Bed Reactor (IFBR) has been developed to provide biological treatment of high strength organic wastewater for their large specific surface and their low energy requirements for fluidization. In this work, there is carried out the analysis of a process of production of ethanol, identifying the effluent ones that are generated in the process. One determined that the effluent end is composed principally by the vinasses originated from the process of distillation. In the characterization of the vinasses originated from the process of production of ethanol from cane sugar molasses, there were average values of DQO of 193.35 gDQO/L, average values of solid of 109.78 gST/L and pH of 4.64. In this investigation there was carried out a anaerobic degradability test of the vinasses generated in the production of ethanol. In the characterization of the sludge used in the essay, the specific methanogenic activity (SMA) was 0.14 gDQO/gSSV.d. The average removal of DQO of the vinasses was 62.7 %, k equal to 0.031 h-1 was obtained one and a rate of removal substrate of 1.26 gDQO/d. The methane yield was 0.19 LCH4/gDQO removed and the anaerobic biodegradability was a 54.1 %. This study describes the performance of IFBR with Extendospher®, for the treatment of vinasses. The start-up was made in batch, increasing gradually the Organic Load Rate (OLR): 0.5, 1.0, 3.3, 6.8 and 10.4 g COD/L.d. Different Hydraulic Retention Times (HRT) were evaluated: 10, 5 and 1 days. During the operation in batch, the COD removal obtained was of 81 %, and for OLR of 0.5, 1.0, 3.3, 6.8 g COD/L.d the removal obtained was 58, 67, 59 and 50 % respectively. For a maximum OLR of 10.4 g COD/L.d, the COD removal was 38 %, and the system presented instability and decrease of the yield methane. The methane production initiated after 110 days of the start-up of the IFBR, to organic load rate of 1.0 g COD/L.d. The system reached values in the methane yield from 0.15 up to 0.34 LCH4/g CODremoved, for the different organic load rates. During the operation to a constant OLR of 6.4 g COD/L.d, and a HRT of 1 day, the Anaerobic Inverse Fluidized Bed Reactor reached a maximum efficiency of removal of 52 %.