610 resultados para calcul variationnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad las industrias químicas, farmacéuticas y clínicas, originan contaminantes en aguas superficiales, aguas subterráneas y suelos de nuestro país, como es el caso del fenol, contaminante orgánico común y altamente dañino para los organismos, incluso a bajas concentraciones. Existen en el mercado diferentes metodologías para minimizar la contaminación pero muchos de estos procesos tienen un alto coste, generación de contaminantes, etc. La adsorción de contaminantes por medio de arcillas es un método ampliamente utilizado, encontrándose eficaz y económico. Pero la dificultad de adsorber un contaminante orgánico como el fenol motiva la creación de un material llamado organoarcillas. Las organoarcillas son arcillas modificadas con un surfactante, a su vez, los surfactantes son moléculas orgánicas que confieren a la superficie de la arcilla carga catiónica en lugar de aniónica, haciendo más fácil la adsorción de fenol. Para esta tesis se ha elegido el caolín como material adsorbente, fácilmente disponible y relativamente de bajo coste. Se ha trabajado con: arenas de caolín, material directo de la extracción, y caolín lavado, originado del proceso de lavado de las arenas de caolín. Ambos grupos se diferencian fundamentalmente por su contenido en cuarzo, ampliamente mayor en las arenas de caolín. Con el objetivo de desarrollar un material a partir del caolín y arenas de éste con capacidad de retención de contaminates, en concreto, fenol, se procedió a modificar los materiales de partida mediante tratamientos térmicos, mecánicos y/o químicos, dando lugar a compuestos con mayor superficie química reactiva. Para ello se sometió el caolín y las arenas caoliníferas a temperaturas de 750ºC durante 3h, a moliendas hasta alcanzar su amorfización, y/o a activaciones con HCl 6M o con NaOH 5M durante 3h a 90ºC. En total se obtuvieron 18 muestras, en las que se estudiaron las características físico-químicas, mineralógicas y morfológicas de cada una de ellas con el fin de caracterizarlas después de haber sufrido los tratamientos y/o activaciones químicas. Los cambios producidos fueron estudiados mediante pH, capacidad de intercambio catiónico (CEC), capacidad de adsorción de agua (WCU y CWC), distribución de tamaño de partícula (PSD), área de superficie específica (SBET), difracción de rayos X (XRD), espectroscopía infrarroja por transformada de Fourier (FTIR), métodos térmicos (TG, DTG y DTA), y microscopía electrónica de transmisión y barrido (SEM y TEM). Además se analizó los cambios producidos por los tratamientos en función de las pérdidas de Al y Si que acontece en las 18 muestras. Los resultados para los materiales derivados de la arenas caoliníferas fueron similares a los obtenidos para los caolines lavados, la diferencia radica en la cantidad de contenido de caolinita en los diferente grupos de muestras. Apoyándonos en las técnicas de caracterización se puede observar que los tratamientos térmico y molienda produce materiales amorfos, este cambio en la estructura inicial sumado a las activaciones ácida y alcalina dan lugar a pérdidas de Si y Al, ocasionando que sus propiedades físico-químicas, mineralógicas y morfológicas se vean alteradas. Un fuerte aumento es observado en las áreas superficiales y en la CEC en determinadas muestras, además entre los cambios producidos se encuentra la producción de diferentes zeolitas en porcentajes distintos con el tratamiento alcalino. Para la obtención de las organoarcillas, las 18 muestras se sometieron a la surfactación con hexadeciltrimetil amonio (HDTMA) 20 mM durante 24h a 60ºC, esta concentración de tensioactivo fue más alta que la CEC de cada muestra. Los camext bios anteriormente producidos por los tratamientos y activaciones, afectan de forma diferente en la adsorción de HDTMA, variando por tanto la adsorción del surfactante en la superficie de las muestras. Se determinó el tensioactivo en superficie por FTIR, además se realizó un análisis de componentes principales (PCA) para examinar la dependencia entre las relaciones Si/Al de las muestras en la capacidad de adsorción de tensioactivo, y para el estudio de la adsorción de HDTMA en las muestras se realizaron además del análisis termogravimétrico, aproximaciones con los modelos de Freundllich y Langmuir. Se persigue conocer las diferentes formas y maneras que tiene el tensioactivo de fijarse en la superficie de las muestras. En las organoarcillas resultantes se cuantificó el fenol adsorbido cuando éstas fueron puestas en contacto con diferentes concentraciones de fenol: 50, 500, 1000, 2000, y 2500 mg/l durante 24h. El contaminante sorbido se calculó por medio de cromatografía de gases, y se realizaron aproximaciones con los modelos de Freundllich y Langmuir. El comportamiento de adsorción de fenol en arcillas orgánicas es regido por las características de las muestras. De forma general se puede decir que las muestras de caolines lavados tienen más capacidad de adsorción de fenol que las muestras de arenas de caolín y que la activación alcalina ha proporcionado una mejora en la adsorción de fenol en los dos grupos. En consecuencia se han obtenido materiales adsorbentes heterogéneos y por tanto, con propiedades diferentes. Se ha evaluado el comportamiento global de las arenas de caolín por un lado y del caolín lavado por otro. Las arenas de caolín presentan altos niveles de cuarzo y su uso para ciertos tipos de industrias no son recomendados en ocasiones por el alto costo que el proceso de limpieza y purificación implicaría. Por ello es importante reseñar en este proyecto las aplicaciones que ofrecen algunas muestras de este grupo. Los ensayos acontecidos en esta tesis han dado lugar a las siguientes publicaciones: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno. Aceptada en Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Envío a revista sujeto a la publicación del artículo anterior. ABSTRACT Today’s chemical, pharmaceutical and clinical industries generate pollutants that affect the soils and surface and ground waters of our country. Among these, phenol is a common organic pollutant that is extremely harmful to living organisms, even at low concentrations. Several protocols exist to minimize the effects of pollutants, but most are costly procedures or even generate other pollutants. The adsorption of hazardous materials onto clays is perhaps the most used, efficient and cost-saving method available. However, organic compounds such as phenol are difficult to adsorb and this has led to the development of materials known as organoclays, which are much better at remediating organic compounds. Organoclays are clays that have been modified using a surfactant. In turn, surfactants are organic molecules that confer a cationic rather than anionic charge to the clay surface, improving it’s capacity to adsorb phenol. For this doctorate project, kaolin was selected as an adsorbent material for the removal of phenol given its easy sourcing and relatively low cost. The materials investigated were kaolin sand, a directly extracted material, and washed kaolin, which is the byproduct of the kaolin sand washing process. The main difference between the materials is their quartz content, which is much higher in the kaolin sands. To generate a product from kaolin or kaolin sand capable of retaining organic pollutants such as phenol, both materials were subjected to several heat, chemical and/or mechanical treatments to give rise to compounds with a greater reactive surface area. To this end the two starting materials underwent heating at 750ºC for 3 h, grinding to the point of amorphization and/or activation with HCl 6M or NaOH 5M for 3 h at 90ºC. These treatments gave rise to 18 processed samples, which were characterized in terms of their morphological, mineralogical, and physical-chemical properties. The behaviour of these new materials was examined in terms of their pH, cation exchange capacity (CEC), water adsorption capacity (WCU and WCC), particle size distribution (PSD), specific surface area (SBET), and their X-ray diffraction (XRD), Fourier transform infrared spectroscopy (FTIR), thermal (DTG, DTA) and scanning and transmission electron microscopy (SEM and TEM) properties. The changes conferred by the different treatments were also examined in terms of Al and Si losses. Results for the materials derived from kaolin sands and washed kaolin were similar, with differences attributable to the kaolinite contents of the samples. The treatments heat and grinding produced amorphous materials, which when subjected to acid or alkali activation gave rise to Si and Al losses. This in turn led to a change in physico- chemical, mineralogical and morphological properties. Some samples showed a highly increased surface area and CEC. Further, among the changes produced, alkali treatment led to the generation of zeolites in different proportions depending on the sample. To produce the organoclays, the 18 samples were surfacted with hexadecyltrimethylammonium (HDTMA) 20 mM for 24 h at 60ºC. This surfactant concentration is higher than the CEC of each sample. The amount of HDTMA adsorbed onto the surface of each sample determined by FTIR varied according to treatment. A principle components analysis (PCA) was performed to examine correlations between sample Si/Al ratios and surfactant adsorption capacity. In addition, to explore HDTMA adsorption by the samples, DTG and DTA data were fitted to Freundllich and Langmuir models. The mechanisms of surfactant attachment to the sample surface were also addressed. The amount of phenol adsorbed by the resultant organoclays was determined when exposed to different phenol concentrations: 50, 500, 1000, 2000, and 2500 mg/l for 24 h. The quantity of adsorbed pollutant was estimated by gas chromatography and the data fitted to the models of Freundllich and Langmuir. Results indicate that the phenol adsorption capacity of the surfacted samples is dependent on the sample’s characteristics. In general, the washed kaolin samples showed a greater phenol adsorption capacity than the kaolon sands and alkali activation improved this capacity in the two types of sample. In conclusion, the treatments used gave rise to adsorbent materials with varying properties. Kaolin sands showed high quartz levels and their use in some industries is not recommended due to the costs involved in their washing and purification. The applications suggested by the data obtained for some of the kaolin sand samples indicate the added value of this industrial by-product. The results of this research project have led to the following publications: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G. San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno Accepted in Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Shipment postponed, subject to the publication of the previous article.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis constituye un avance en el estudio de los métodos para cuantificar la fibra soluble y los efectos de las fracciones de fibra y las fuentes de fibra sobre la digestión de las diferentes fracciones de fibra (soluble e insoluble) en el conejo. Hay un efecto positivo de la fibra soluble sobre la salud intestinal de los conejos y, por ende, una reducción de la mortalidad en animales destetados. Pese a esto, no está claro si estos efectos se deben específicamente a la fracción soluble. Por lo que los objetivos generales de esta tesis fueron: 1) comparar diferentes metodologías químicas e in vitro para cuantificar la fibra soluble y estudiar las posibles interferencias en la cuantificación de la fibra soluble por las mucinas, y viceversa, 2) determinar los efectos de la fibra, el lugar de fermentación, el método para valorar la fibra soluble e insoluble, y la corrección de la fibra soluble por el contenido intestinal de mucinas sobre la digestibilidad de las distintas fracciones de la fibra y 3) evaluar los efectos individuales de las fracciones soluble e insoluble de la fibra de pulpa de remolacha y de manzana, sobre la digestibilidad de la fibra soluble e insoluble y los parámetros digestivos. Para ello se llevaron a cabo 4 estudios. En el primer estudio se compararon diferentes metodologías químicas e in vitro para valorar la fibra soluble de diferentes alimentos y se estudió la posible interferencia en la determinación de la fibra soluble y mucinas. Para ello se utilizaron seis ingredientes (pulpa de remolacha, pectinas de pulpa de remolacha, pulpa de remolacha lavada, paja de cereal, cascarilla de girasol y lignocelulosa) y siete piensos de conejos con diferentes niveles de fibra soluble. En un primer experimento se analizó la fibra dietética total (FDT), la fibra dietética insoluble (FDI), la fibra dietética soluble (FDS), la fibra neutro detergente corregida por cenizas y proteínas (aFNDmo-pb), y la digestibilidad in vitro 2 pasos pepsina/pancreatina (residuo corregido por cenizas y proteína, ivMSi2) de los ingredientes y piensos. Además la fibra soluble se calculó mediante la diferencia entre FDT-FDI (FDSFDI), FDT- ivMSi2 (FDSivMSi2), y FDT - aFNDmo-pb (FDSaFNDmo-pb). Cuando la fibra soluble se determinó directamente como FDS o se calculó como FDT-FDI no se observaron diferencias (109 g/kg MS, en promedio). Sin embargo, cuando la fibra soluble se calculó como FDT - aFNDmo-pb su valor fue un 40% menor (153 g/kg MS. P < 0,05), mientras que la FDSFDI (124 g/kg MS) no fue diferente a ninguna de las otras metodologías. La correlación entre los tres métodos fue elevada (r > 0,96. P < 0,001. n = 13), pero disminuyó o incluso desapareció cuando la pulpa o las pectinas de la remolacha fueron excluidas del análisis. En un segundo experimento, se comparó el método ivDMi2 usando crisoles (método de referencia) con una modificación del mismo usando bolsas ANKOM digeridas individualmente o en colectivo para simplificar la determinación de la FDSivMSi2. La FDSivMSi2 no difirió entre los métodos comparados. En un tercer experimento, se analizó la posible interferencia entre la determinación de la fibra soluble y las mucinas intestinales. Se observó un contenido de FDT y de mucinas elevado en las muestras de pectinas de remolacha (994 y 709 g/kg MS), así como en el moco intestinal de conejo (571 y 739 g/kg MS) cuando se aplicó el método de mucinas por precipitación con etanol. Sin embargo, después de aplicar una pectinasa en el material precipitado, la cantidad de mucinas recuperadas en las muestras de pectinas de remolacha fue cercana a cero, mientras que en el moco intestinal fue similar a los resultados previos al uso de la enzima. Con los resultados de este ensayo se estimaron los carbohidratos de mucinas retenidos en los contenidos digestivos y se propuso una corrección para la determinación de la digestibilidad de la FDT y fibra soluble. En conclusión, la contaminación de las mucinas de la digesta con fibra soluble se soluciona usando pectinasas. El segundo estudio se centró en estudiar: 1) el efecto del tipo de fibra, 2) el sitio de fermentación, 3) el método para cuantificar fibra y 4) la corrección por mucinas sobre la digestibilidad de la fibra. Para ello se formularon tres piensos con diferentes niveles de fibra soluble (FDT-aFNDmo-pb). Un pienso bajo en fibra soluble (LSF. 85 g/kg DM), un pienso medio en fibra soluble (MSF. 102 g/kg DM), y un pienso alto en fibra soluble (HSF. 145 g/kg DM). Estos piensos se obtuvieron reemplazando un 50% del heno del alfalfa en el pienso MSF por una mezcla de pulpa de manzana y remolacha (HSF) o por una mezcla de cascarilla de avena y proteína de soja (LSF). Se utilizaron 30 conejas canuladas para determinar la digestibilidad ileal y fecal. La digestibilidad cecal se calculó mediante diferencia entre la digestibilidad fecal e ileal. La fibra insoluble se determinó como aFNDmo-pb, IDF, e ivMSi2, mientras que la fibra soluble se calculó como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2. La digestibilidad de la FDT y la fibra soluble se corrigieron por las mucinas. La concentración de mucinas en la digesta ileal y fecal, aumento desde el grupo LSF hasta el grupo con el pienso HSF (P < 0,01). La corrección por mucinas aumentó las digestibilidades de la FDT y la fibra soluble a nivel ileal, mientras que a nivel cecal las redujo. (P < 0.01). El coeficiente de digestibilidad ileal de FDT aumentó desde el grupo LSF al grupo HSF (0,12 vs. 0,281. P < 0,01), sin diferencias en el coeficiente de digestibilidad cecal (0,264), por lo que la tendencia a nivel fecal entre los grupos se mantuvo. El coeficiente de digestibilidad ileal de la fibra insoluble aumento desde el grupo con el pienso LSF al grupo con el pienso HSF (0,113 vs. 0,210. P < 0,01), sin diferencias a nivel cecal (0,139) y sin efecto del método usado, resultando en una digestibilidad elevada a nivel fecal, con tendencias similares a las observadas a nivel ileal. El coeficiente de digestibilidad de la FND fue elevada en comparación con la FDI o la ivMSi2 (P > 0.01). El coeficiente de la digestibilidad ileal de la fibra soluble fue mayor en el grupo LSF respecto al grupo LSF (0,436 vs. 0,145. P < 0,01) y el método no afectó a esta determinación. El coeficiente de la digestibilidad cecal de la fibra soluble se redujo desde el grupo LSF hasta el grupo HSF (0,721 vs. 0,492. P < 0,05). El valor más bajo de digestibilidad cecal y fecal de fibra soluble fue medido con el método FDSaFNDmo-pb (P < 0,01). Se observó una alta correlación entre las digestibilidades de la fibra soluble determinada como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2, por lo tanto la información proporcionada por una u otra metodología fueron similares. Sin embargo, cuando se compararon con efectos fisiológicos (producción de mucinas y peso del ciego y pH del ciego de un trabajo previo), la FDSaFNDmo-pb globalmente mostró estar mejor correlacionado con estos parámetros fisiológicos. En conclusión, la corrección por mucinas es necesaria para determinar la digestibilidad ileal de la FDT y fibra soluble, mientras que la elección de uno u otro método es menos relevante. La inclusión de pulpa de manzana y remolacha incrementa la cantidad de FDT que desaparece antes de llegar al ciego. En el tercer estudio se estudió el efecto de la fracción fibrosa soluble e insoluble de la pulpa de remolacha y el método de cuantificación de la fibra soluble e insoluble sobre la digestibilidad de la fibra y algunos parámetros digestivos. Para ello se formularon cuatro piensos con niveles similares de fibra insoluble (315g aFNDmo-pb/kg MS) y proteína (167 g/kg MS). El pienso control contuvo el nivel más bajo de fibra soluble (30,3 g/kg, con cascarilla de girasol y paja como fuente de fibra). Un segundo pienso se obtuvo mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de remolacha (82,9 g fibra soluble/kg MS). Los otras dos piensos resultaron de la sustitución parcial de las fuentes de fibra del pienso control por la fracción insoluble de la pulpa de remolacha y la pulpa de remolacha entera (42.2 y 82.3 g fibra soluble/kg MS, respectivamente). Cincuenta y seis conejos en cebo (14/pienso), de 2,4  0.21 kg de peso, fueron usados para determinar la digestibilidad ileal y fecal de la FDT, FDI, aFNDmo-pb, FDSFDI, y FDSaFNDmo-pb. La concentración de mucinas en el íleon y heces se utilizaron para corregir la digestibilidad de la FDT y fibra soluble. También se midió el peso de diferentes segmentos del tracto digestivo y el pH del contenido digestivo. Los conejos alimentados con el pienso de fibra insoluble de pulpa de remolacha mostraron los consumos más bajos con respecto a los demás grupos (124 vs. 139 g/d, respectivamente. P < 0,05). El flujo de mucinas ileales fue más alto (P < 0.05) en el grupo alimentado con el pienso de pectinas de remolacha (9,0 g/d en promedio) que los del grupo control (4,79 g/d), mostrando los otros dos grupos valores intermedios, sin detectarse diferencias a nivel fecal. La digestibilidad ileal de la FDT (corregida por mucinas) y la fibra insoluble no se vieron afectadas por el tipo de pienso. El método usado para determinar la fibra insoluble afectó su digestibilidad ileal (0,123 para FDI vs. 0,108 para aFNDmo-pb. P < 0.01). De todas formas, los métodos no afectaron al cálculo de la fibra fermentada antes del ciego (4,9 g/d en promedio). Los conejos alimentados con el pienso de pulpa de remolacha y con el pienso con la fracción insoluble de la pulpa de remolacha mostraron las digestibilidades fecales más altas de la fibra insoluble (0,266 en promedio vs. 0,106 del grupo control), mientras que en los animales del pienso con pectinas esta digestibilidad fue un 47% mayor respecto al pienso control (P < 0,001). La digestibilidad fecal de la fibra insoluble fue un 20% más alta cuando se usó la FND en lugar de FDI para determinarla (P < 0.001). Esto hizo variar la cantidad de fibra insoluble fermentada a lo largo del tracto digestivo (9,5 ó 7,5 g/d cuando fue calculada como FDI o aFNDmo-pb, respectivamente. P < 0,001). Las digestibilidades ileales de la fibra soluble fueron positivas cuando los análisis de fibra soluble de los contenidos ileales fueron corregidos por mucinas, (P < 0,001) excepto para la digestibilidad ileal de la FDSIDF del grupo control. Una vez corregidas por mucinas, los conejos alimentados con los piensos que contuvieron la fracción soluble de la pulpa de remolacha (pienso de pectina y pulpa de remolacha) mostraron una mayor digestibilidad ileal de la fibra soluble, respecto al grupo control (0,483 vs. -0,010. P = 0.002), mientras que el grupo del pienso de fibra insoluble de pulpa de remolacha mostró un valor intermedio (0,274). La digestibilidad total de la fibra soluble fue similar entre todos los grupos (0.93). Los conejos alimentados con pulpa de remolacha y su fracción insoluble mostraron los pesos relativos más altos del estómago respecto a los del pienso control y de pectinas (11 y 56 % respectivamente; P < 0,05). Por otra parte, el peso relativo del ciego aumentó en los animales que consumieron tanto la fracción soluble como insoluble de la pulpa de remolacha, siendo un 16% más pesados (P < 0,001) que el grupo control. El pH del contenido cecal fue más bajo en los animales del grupo de pulpa de remolacha que en los del grupo control (5,64 vs. 6,03; P < 0,001), mientras que los del grupo de pectinas y de fibra insoluble de pulpa de remolacha mostraron valores intermedios. En conclusión, el efecto positivo de la pulpa de remolacha en el flujo de mucinas a nivel ileal se debe a la fracción soluble e insoluble de la pulpa de remolacha. La mitad de la fibra soluble de la pulpa de remolacha desaparece antes de llegar al ciego, independientemente si esta proviene de pectinas puras o de la pulpa de remolacha. El pH cecal esta mejor correlacionado con la cantidad de FDT que desaparece antes del ciego más que con la que se degrada en el ciego. En el último estudio se estudiaron los efectos de la fibra soluble e insoluble de la pulpa de manzana sobre la digestibilidad de la fibra y algunos parámetros digestivos. Cuatro dietas fueron formuladas con niveles similares de fibra insoluble (aFNDmo-pb 32,4%) y proteína (18,6% ambos en base seca). El pienso control contuvo el nivel más bajo de fibra soluble (46 g de fibra soluble/kg, con cascarilla de girasol y paja de cereales como la fuentes de fibra). Un segundo pienso fue obtenido mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de manzana (105 g fibra soluble/kg). Los otros dos piensos se obtuvieron por la substitución de parte de las fuentes de fibra del pienso control por pulpa de manzana o pulpa de manzana despectinizada (93 y 71 g de fibra soluble/kg, respectivamente). La digestibilidad fecal fue determinada en 23 conejos/pienso con 1.68 ± 0.23 kg de peso vivo, los cuales fueron sacrificados a los 60 d edad para recolectar su contenido digestivo para determinar digestibilidad ileal y otros parámetros digestivos. La fibra soluble de manzana (pectinas y pulpa entera) estimuló el flujo ileal de mucinas (P = 0,002), pero no asi la pulpa despectinizada. La corrección por mucinas incrementó la digestibilidad de la FDT y la fibra soluble a nivel fecal, y especialmente a nivel ileal. Cerca de la mitad de la fibra soluble proveniente de los piensos con cualquiera de las fracciones de la pulpa de manzana fue degradada a nivel ileal, sin mostrar diferencias entre los grupos (46 y 86% en promedio a nivel ileal y fecal respectivamente). La inclusión de pulpa despectinizada de manzana mejoró la digestibilidad de la FND a nivel fecal (P < 0,05) pero no a nivel ileal. El contenido cecal de los conejos alimentados con la pulpa de manzana tuvieron el pH cecal más ácido que los del pienso control (5,55 vs. 5,95. P < 0,001), mientras que los animales con el pienso de pectinas de manzana y de pulpa de manzana despectinizada mostraron valores intermedios. En conclusión los efectos positivo de la pulpa de manzana en el flujo de mucinas se debió principalmente a la fracción soluble de la pulpa de manzana. La mitad de la fibra soluble fue degradada antes del ciego independientemente de si esta provino de las pectinas o de la pulpa de manzana. El pH cecal estuvo mejor correlacionado con la cantidad de FDT fermentada en todo el tracto digestivo y antes de llegar al ciego que con la que se degradó en el ciego. Al integrar los resultados de los estudio 2, 3 y 4 se concluyó que la corrección de mucinas de los contenidos digestivos al determinar FDT y fibra soluble es necesaria para ajustar los cálculos de su digestibilidad. Esta corrección es mucho más importante a nivel ileal y en dietas bajas en fibra soluble. Por otra parte, la FDT desapareció en proporciones importantes antes de llegar al ciego, especialmente en piensos que contienen pulpa de remolacha o de manzana o alguna fracción soluble o insoluble de las mismas y estas diferencias observadas entre los piensos a nivel ileal se correlacionaron mejor con el pH cecal, lo que indicaría que la FDT se solubilizó antes de llegar al ciego y una vez en esté fermentó. Estos resultados implican que determinar la fibra soluble como FDSaFNDmo-pb es la mejor opción y que en la determinación de la digestibilidad de la FDT y fibra soluble se debe considerar la corrección por mucinas especialmente a nivel ileal y en piensos bajos en fibra soluble. ABSTRACT The present thesis constitutes a step forward in advancing the knowledge of the methods to quantify soluble fibre and the effects of the fibre fractions and source of fibre on the site the digestion of different fractions of fibre (soluble and insoluble) in the rabbit. There is a positive effect of soluble fibre on rabbit digestive health and therefore on the reduction of mortality in weaning rabbits. Nevertheless, it is no so clear that the effects of soluble fibre on rabbits are due particularly to this fraction. This thesis aims: 1) to compare the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and to study the potential interference between soluble fibre and mucin determinations, 2) to identify the effects of type of fibre, site of fermentation, method to quantify insoluble and soluble fibre, and correction of the intestinal soluble fibre content for intestinal mucin on the digestibility of fibre fractions and 3) to evaluate the individual effect of soluble and insoluble fibre from sugar beet pulp and apple pulp on ileal and faecal soluble and insoluble digestibility and digestive traits. These objectives were developed in four studies: The first study compared the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and studied the potential interference between soluble fibre and mucin determinations. Six ingredients, sugar beet pulp (SBP), SBP pectins, insoluble SBP, wheat straw, sunflower hulls and lignocellulose, and seven rabbit diets, differing in soluble fibre content, were evaluated. In experiment 1, ingredients and diets were analysed for total dietary fibre (TDF), insoluble dietary fibre (IDF), soluble dietary fibre (SDF), aNDFom (corrected for protein, aNDFom-cp) and 2-step pepsin/pancreatin in vitro DM indigestibility (corrected for ash and protein, ivDMi2). Soluble fibre was estimated by difference using three procedures: TDF - IDF (SDFIDF), TDF - ivDMi2 (SDFivDMi2), and TDF - aNDFom-cp (SDFaNDFom-cp). Soluble fibre determined directly (SDF) or by difference, as SDFivDMi2 were not different (109 g/kg DM, on average). However, when it was calculated as SDFaNDFom-cp the value was 40% higher (153 g/kg DM, P < 0.05), whereas SDFIDF (124 g/kg DM) did not differ from any of the other methods. The correlation between the four methods was high (r ≥ 0.96. P ≤ 0.001. n = 13), but it decreased or even disappeared when SBP pectins and SBP were excluded and a lower and more narrow range of variation of soluble fibre was used. In experiment 2, the ivDMi2 using crucibles (reference method) were compared to those made using individual or collective ankom bags in order to simplify the determination of SDFivDMi2. The ivDMi2 was not different when using crucibles or individual or collective ankom bags. In experiment 3, the potential interference between soluble fibre and intestinal mucin determinations was studied using rabbit intestinal raw mucus, digesta and SBP pectins, lignocelluloses and a rabbit diet. An interference was observed between the determinations of soluble fibre and crude mucin, as the content of TDF and apparent crude mucin were high in SBP pectins (994 and 709 g/kg DM) and rabbit intestinal raw mucus (571 and 739 g/kg DM). After a pectinase treatment, the coefficient of apparent mucin recovery of SBP pectins was close to zero, whereas that of rabbit mucus was not modified. An estimation of the crude mucin carbohydrates retained in digesta TDF is proposed to correct TDF and soluble fibre digestibility. In conclusion, the values of soluble fibre depend on the methodology used. The contamination of crude mucin with soluble fibre is avoided using pectinase. The second study focused on the effect of type of fibre, site of fermentation, method for quantifying insoluble and soluble dietary fibre, and their correction for intestinal mucin on fibre digestibility. Three diets differing in soluble fibre were formulated (85 g/kg DM soluble fibre, in the low soluble fibre [LSF] diet; 102 g/kg DM in the medium soluble fibre [MSF] diet; and 145 g/kg DM in the high soluble fibre [HSF] diet). They were obtained by replacing half of the dehydrated alfalfa in the MSF diet with a mixture of beet and apple pulp (HSF diet) or with a mix of oat hulls and soybean protein (LSF diet). Thirty rabbits with ileal T-cannulas were used to determine total tract apparent digestibility (CTTAD) and ileal apparent digestibility (CIAD). Caecal digestibility was determined by difference between CTTAD and CIAD. Insoluble fibre was measured as aNDFom-cp, IDF, and ivDMi2, whereas soluble fibre was calculated as SDFaNDFom-cp, SDFIDF, SDFivDMi2. The intestinal mucin content was used to correct the TDF and soluble fibre digestibility. Ileal and faecal concentration of mucin increased from the LSF to the HSF diet group (P < 0.01). Once corrected for intestinal mucin, The CTTAD and CIAD of TDF and soluble fibre increased whereas caecal digestibility decreased (P < 0.01). The CIAD of TDF increased from the LSF to the HSF diet group (0.12 vs. 0.281. P < 0.01), with no difference in the caecal digestibility (0.264), resulting in a higher CTTAD from the LSF to the HSF diet group (P < 0.01). The CIAD of insoluble fibre increased from the LSF to the HSF diet group (0.113 vs. 0.21. P < 0.01), with no difference in the caecal digestibility (0.139) and no effect of fibre method, resulting in a higher CTTAD for rabbits fed the HSF diet compared with the MSF and LSF diets groups (P < 0.01). The CTTAD of aNDFom-cp was higher compared with IDF or ivDMi2 (P < 0.01). The CIAD of soluble fibre was higher for the HSF than for the LSF diet group (0.436 vs. 0.145. P < 0.01) and fibre method did not affect it. Caecal soluble fibre digestibility decreased from the LSF to the HSF diet group (0.721 vs. 0.492. P < 0.05). The lowest caecal and faecal soluble fibre digestibility was measured using SDFaNDFom-cp (P < 0.01). There was a high correlation among the digestibilities of soluble fibre measured as SDFaNDFom-cp, SDFIDF, and SDFivDMi2. Therefore, these methodologies provide similar information. However, the method that seems to be globally better related to the physiological traits (ileal flow of mucins, and relative weight of the caecum and caecal pH from previous work) was the SDFaNDFom-cp. In conclusion, a correction for intestinal mucin is necessary for ileal TDF and soluble fibre digestibility whereas the selection of the fibre method has a minor relevance. The inclusion of sugar beet and apple pulp increased the amount of TDF fermented in the small intestine. The third study examined the effect of fibre fractions of sugar beet pulp (SBP) and the method for quantifying soluble and insoluble fibre on soluble and insoluble fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 315 g/kg DM) and protein (167 g/kg DM). Control diet contained the lowest level of soluble fibre (30.3 g/kg DM, including sunflower hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with SBP pectins (82.9 g soluble fibre/kg DM). Two more diets were obtained by replacing part of the fibrous sources of the control diet with either insoluble SBP fibre or SBP (42.2 and 82.3 g soluble fibre/kg DM, respectively). Fifty six (14/diet) rabbits weighing 2.40  0.213 kg were used to determine faecal and ileal digestibility of total dietary fibre (TDF), insoluble dietary fibre (IDF), neutral detergent fibre corrected for ash and CP (aNDFom-cp) and soluble fibre estimated as SDFaNDFom-cp and SDFIDF. Faecal and ileal mucin content was used to correct TDF and soluble fibre digestibility. It was also recorded weight of digestive segments and digesta pH. Rabbits fed insoluble SBP showed the lowest feed intake with respect to the other 3 diets (124 vs. 139 g/d, respectively. P < 0.05). Ileal mucin flow was higher (P < 0.05) in animals fed pectin and SBP diets (9.0 g/d, as average) than those fed control diet (4.79 g/d), showing InsSBP group an intermediate value. No differences on mucin content were detected at faecal level. There was no diet effect on the CIAD of TDF (corrected for mucin) and insoluble fibre. Fibre methodology influenced the CIAD of insoluble fibre (0.123 for IDF vs. 0.108 for aNDFom-cp. P < 0.01). Anyway, the amount of insoluble fibre fermented before the caecum did not differ between both methods (4.9 g/d, on average). Rabbits fed insoluble SBP and SBP diets showed the highest CTTAD of insoluble fibre (0.266 on average vs. 0.106 for control group), whereas those fed pectin diet had an intermediate value (0.106. P < 0.001). The CTTAD of insoluble fibre measured with IDF was higher than that measured with aNDFom-cp (by 20%. P < 0.001). It led that the amount of insoluble fibre fermented along the digestive tract were different (9.5 or 7.5 g/d when calculated as IDF or aNDFom-cp, respectively; P < 0.001). When the CIAD of soluble fibre was corrected for mucin they became positive (P < 0.001) except for control group measured as SDFIDF. Once corrected for mucin content, rabbits fed soluble fibre from SBP (pectin and SBP groups) showed higher CIAD of soluble fibre than control group (0.483 vs. -0.019. respectively), whereas the value for insoluble SBP group was intermediate 0.274. The CTTAD of soluble fibre (mucin corrected) was similar among diets 0.93. Rabbits fed with SBP and insoluble SBP diets showed higher total digestive tract and stomach relative weight than those fed pectin and control diets (by 11 and 56 %. respectively, P < 0.05). The caecal relative weight did not differ in rabbits fed pectin, insoluble SBP, and SBP diets (62 g/kg BW, as average) and they were on average 16% higher (P < 0.001) than in control group. Caecal content of rabbits fed SBP diet was more acid than those fed control diet (5.64 vs. 6.03. P < 0.001), whereas those from pectin and insoluble SBP diets showed intermediate values. In conclusion, the positive effect of SBP fibre on ileal mucin flow was due to both its soluble and insoluble fibre fraction. Half of the soluble SBP fibre was degraded before the caecum independently it came from pectin or SBP. The caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The last study examined the effect of soluble and insoluble fibre of apple pulp on fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 324 g/kg DM) and protein (18.6 g/kg DM). Control diet contained the lowest level of soluble fibre (46 g soluble fibre/kg DM, including oat hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with apple pectins (105 g soluble fibre/kg DM). Two more diets were obtained by substituting part of the fibrous sources of the control diet by either apple pulp or depectinized apple pulp (93 and 71 g soluble fibre/kg, respectively). The CTTAD was determined in 23 rabbits/diet weighing 1.68  0.23 kg BW, and 23 rabbits/diet were slaughtered at 60 d of age to collect ileal digesta to determine CIAD and record other digestive traits. Soluble fibre from apple stimulated ileal flow of mucin (P = 0.002), but depectinized apple pulp did not. The correction for mucin increased the digestibility of crude protein, total dietary fibre, and soluble fibre at faecal, but especially at ileal level, depending in this case on the diet. Around half of the soluble fibre in diets containing any fibre fraction from apple was degraded at ileal level, with no differences among these diets (0.46 vs. 0.066 for control group, P=0.046). Faecal soluble fibre digestibility was 0.86 on average for all groups). Inclusion of the apple insoluble fibre improved NDF digestibility at faecal (0.222 vs. 0.069. P < 0.05) but not at ileal level. Caecal content of rabbits fed apple pulp diet was more acid than those fed control diet (5.55 vs. 5.95. P < 0.001), whereas those from pectin and depectinised apple pulp diets showed intermediate values. In conclusion, the positive effect of apple fibre on ileal mucin flow was mainly due to its soluble fibre fraction. Half of the soluble apple fibre was degraded before the caecum independently it came from pectin or apple pulp. The caecal pH correlated better with the total and ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The results obtained in the studies 2, 3 and 4 were considered together. These results showed that the mucin correction is necessary when the TDF and soluble fibre digestibility is determined, and it correction is more important at ileal level and in diets with low level of soluble fibre. On another hand, incrementing the soluble fibre using sugar beet and apple pulp increased the amount of TDF disappear before the caecum. Moreover, the caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. This suggests that an ileal fibre solubilisation may occur rather than ileal fermentation. Therefore the implications of this work were that: the estimation of soluble fibre as SDFaNDFom-cp is an adequate method considering its correlation with the physiological effects; and the TDF and soluble fibre digestibility must be corrected with intestinal mucins, especially when the ileal digestibility is determined.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El nitrógeno (N) y el fósforo (P) son nutrientes esenciales en la producción de cultivos. El desarrollo de los fertilizantes de síntesis durante el siglo XX permitió una intensificación de la agricultura y un aumento de las producciones pero a su vez el gran input de nutrientes ha resultado en algunos casos en sistemas poco eficientes incrementando las pérdidas de estos nutrientes al medio ambiente. En el caso del P, este problema se agrava debido a la escasez de reservas de roca fosfórica necesaria para la fabricación de fertilizantes fosfatados. La utilización de residuos orgánicos en agricultura como fuente de N y P es una buena opción de manejo que permite valorizar la gran cantidad de residuos que se generan. Sin embargo, es importante conocer los procesos que se producen en el suelo tras la aplicación de los mismos, ya que influyen en la disponibilidad de nutrientes que pueden ser utilizados por el cultivo así como en las pérdidas de nutrientes de los agrosistemas que pueden ocasionar problemas de contaminación. Aunque la dinámica del N en el suelo ha sido más estudiada que la del P, los problemas importantes de contaminación por nitratos en zonas vulnerables hacen necesaria la evaluación de aquellas prácticas de manejo que pudieran agravar esta situación, y en el caso de los residuos orgánicos, la evaluación de la respuesta agronómica y medioambiental de la aplicación de materiales con un alto contenido en N (como los residuos procedentes de la industria vinícola y alcoholera). En cuanto al P, debido a la mayor complejidad de su ciclo y de las reacciones que ocurren en el suelo, hay un mayor desconocimiento de los factores que influyen en su dinámica en los sistemas suelo-planta, lo que supone nuevas oportunidades de estudio en la evaluación del uso agrícola de los residuos orgánicos. Teniendo en cuenta los conocimientos previos sobre cada nutriente así como las necesidades específicas en el estudio de los mismos, en esta Tesis se han evaluado: (1) el efecto de la aplicación de residuos procedentes de la industria vinícola y alcoholera en la dinámica del N desde el punto de vista agronómico y medioambiental en una zona vulnerable a la contaminación por nitratos; y (2) los factores que influyen en la disponibilidad de P en el suelo tras la aplicación de residuos orgánicos. Para ello se han llevado a cabo incubaciones de laboratorio así como ensayos de campo que permitieran evaluar la dinámica de estos nutrientes en condiciones reales. Las incubaciones de suelo en condiciones controladas de humedad y temperatura para determinar el N mineralizado se utilizan habitualmente para estimar la disponibilidad de N para el cultivo así como el riesgo medioambiental. Por ello se llevó a cabo una incubación en laboratorio para conocer la velocidad de mineralización de N de un compost obtenido a partir de residuos de la industria vinícola y alcoholera, ampliamente distribuida en Castilla-La Mancha, región con problemas importantes de contaminación de acuíferos por nitratos. Se probaron tres dosis crecientes de compost correspondientes a 230, 460 y 690 kg de N total por hectárea que se mezclaron con un suelo franco arcillo arenoso de la zona. La evolución del N mineral en el suelo a lo largo del tiempo se ajustó a un modelo de regresión no lineal, obteniendo valores bajos de N potencialmente mineralizable y bajas contantes de mineralización, lo que indica que se trata de un material resistente a la mineralización y con una lenta liberación de N en el suelo, mineralizándose tan solo 1.61, 1.33 y 1.21% del N total aplicado con cada dosis creciente de compost (para un periodo de seis meses). Por otra parte, la mineralización de N tras la aplicación de este material también se evaluó en condiciones de campo, mediante la elaboración de un balance de N durante dos ciclos de cultivo (2011 y 2012) de melón bajo riego por goteo, cultivo y manejo agrícola muy característicos de la zona de estudio. Las constantes de mineralización obtenidas en el laboratorio se ajustaron a las temperaturas reales en campo para predecir el N mineralizado en campo durante el ciclo de cultivo del melón, sin embargo este modelo generalmente sobreestimaba el N mineralizado observado en campo, por la influencia de otros factores no tenidos en cuenta para obtener esta predicción, como el N acumulado en el suelo, el efecto de la planta o las fluctuaciones de temperatura y humedad. Tanto el ajuste de los datos del laboratorio al modelo de mineralización como las predicciones del mismo fueron mejores cuando se consideraba el efecto de la mezcla suelo-compost que cuando se aislaba el N mineralizado del compost, mostrando la importancia del efecto del suelo en la mineralización del N procedente de residuos orgánicos. Dado que esta zona de estudio ha sido declarada vulnerable a la contaminación por nitratos y cuenta con diferentes unidades hidrológicas protegidas, en el mismo ensayo de campo con melón bajo riego por goteo se evaluó el riesgo de contaminación por nitratos tras la aplicación de diferentes dosis de compost bajo dos regímenes de riego, riego ajustado a las necesidades del cultivo (90 ó 100% de la evapotranspiración del cultivo (ETc)) o riego excedentario (120% ETc). A lo largo del ciclo de cultivo se estimó semanalmente el drenaje mediante la realización de un balance hídrico, así como se tomaron muestras de la solución de suelo y se determinó su concentración de nitratos. Para evaluar el riesgo de contaminación de las aguas subterráneas asociado con estas prácticas, se utilizaron algunos índices medioambientales para determinar la variación en la calidad del agua potable (Índice de Impacto (II)) y en la concentración de nitratos del acuífero (Índice de Impacto Ambiental (EII)). Para combinar parámetros medioambientales con parámetros de producción, se calculó la eficiencia de manejo. Se observó que la aplicación de compost bajo un régimen de riego ajustado no aumentaba el riesgo de contaminación de las aguas subterráneas incluso con la aplicación de la dosis más alta. Sin embargo, la aplicación de grandes cantidades de compost combinada con un riego excedentario supuso un incremento en el N lixiviado a lo largo del ciclo de cultivo, mientras que no se obtuvieron mayores producciones con respecto al riego ajustado. La aplicación de residuos de la industria vinícola y alcoholera como fuente de P fue evaluada en suelos calizos caracterizados por una alta capacidad de retención de P, lo cual en algunos casos limita la disponibilidad de este nutriente. Para ello se llevó a cabo otro ensayo de incubación con dos suelos de diferente textura, con diferente contenido de carbonato cálcico, hierro y con dos niveles de P disponible; a los que se aplicaron diferentes materiales procedentes de estas industrias (con y sin compostaje previo) aportando diferentes cantidades de P. A lo largo del tiempo se analizó el P disponible del suelo (P Olsen) así como el pH y el carbono orgánico disuelto. Al final de la incubación, con el fin de estudiar los cambios producidos por los diferentes residuos en el estado del P del suelo se llevó a cabo un fraccionamiento del P inorgánico del suelo, el cual se separó en P soluble y débilmente enlazado (NaOH-NaCl-P), P soluble en reductores u ocluido en los óxidos de Fe (CBD-P) y P poco soluble precipitado como Ca-P (HCl-P); y se determinó la capacidad de retención de P así como el grado de saturación de este elemento en el suelo. En este ensayo se observó que, dada la naturaleza caliza de los suelos, la influencia de la cantidad de P aplicado con los residuos en el P disponible sólo se producía al comienzo del periodo de incubación, mientras que al final del ensayo el incremento en el P disponible del suelo se igualaba independientemente del P aplicado con cada residuo, aumentando el P retenido en la fracción menos soluble con el aumento del P aplicado. Por el contrario, la aplicación de materiales orgánicos menos estabilizados y con un menor contenido en P, produjo un aumento en las formas de P más lábiles debido a una disolución del P retenido en la fracción menos lábil, lo cual demostró la influencia de la materia orgánica en los procesos que controlan el P disponible en el suelo. La aplicación de residuos aumentó el grado de saturación de P de los suelos, sin embargo los valores obtenidos no superaron los límites establecidos que indican un riesgo de contaminación de las aguas. La influencia de la aplicación de residuos orgánicos en las formas de P inorgánico y orgánico del suelo se estudió además en un suelo ácido de textura areno francosa tras la aplicación en campo a largo plazo de estiércol vacuno y de compost obtenido a partir de biorresiduos, así como la aplicación combinada de compost y un fertilizante mineral (superfosfato tripe), en una rotación de cultivos. En muestras de suelo recogidas 14 años después del establecimiento del experimento en campo, se determinó el P soluble y disponible, la capacidad de adsorción de P, el grado de saturación de P así como diferentes actividades enzimáticas (actividad deshidrogenasa, fosfatasa ácida y fosfatasa alcalina). Las diferentes formas de P orgánico en el suelo se estudiaron mediante una técnica de adición de enzimas con diferentes substratos específicos a extractos de suelo de NaOH-EDTA, midiendo el P hidrolizado durante un periodo de incubación por colorimetría. Las enzimas utilizadas fueron la fosfatasa ácida, la nucleasa y la fitasa las cuales permitieron identificar monoésteres hidrolizables (monoester-like P), diésteres (DNA-like P) e inositol hexaquifosfato (Ins6P-like P). La aplicación a largo plazo de residuos orgánicos aumentó el P disponible del suelo proporcionalmente al P aplicado con cada tipo de fertilización, suponiendo un mayor riesgo de pérdidas de P dado el alto grado de saturación de este suelo. La aplicación de residuos orgánicos aumentó el P orgánico del suelo resistente a la hidrólisis enzimática, sin embargo no influyó en las diferentes formas de P hidrolizable por las enzimas en comparación con las observadas en el suelo sin enmendar. Además, las diferentes formas de P orgánico aplicadas con los residuos orgánicos no se correspondieron con las analizadas en el suelo lo cual demostró que éstas son el resultado de diferentes procesos en el suelo mediados por las plantas, los microorganismos u otros procesos abióticos. En este estudio se encontró una correlación entre el Ins6P-like P y la actividad microbiana (actividad deshidrogenasa) del suelo, lo cual refuerza esta afirmación. Por último, la aplicación de residuos orgánicos como fuente de N y P en la agricultura se evaluó agronómicamente en un escenario real. Se estableció un experimento de campo para evaluar el compost procedente de residuos de bodegas y alcoholeras en el mismo cultivo de melón utilizado en el estudio de la mineralización y lixiviación de N. En este experimento se estudió la aplicación de tres dosis de compost: 1, 2 y 3 kg de compost por metro lineal de plantación correspondientes a 7, 13 y 20 t de compost por hectárea respectivamente; y se estudió el efecto sobre el crecimiento de las plantas, la acumulación de N y P en la planta, así como la producción y calidad del cultivo. La aplicación del compost produjo un ligero incremento en la biomasa vegetal acompañado por una mejora significativa de la producción con respecto a las parcelas no enmendadas, obteniéndose la máxima producción con la aplicación de 2 kg de compost por metro lineal. Aunque los efectos potenciales del N y P fueron parcialmente enmascarados por otras entradas de estos nutrientes en el sistema (alta concentración de nitratos en el agua de riego y ácido fosfórico suministrado por fertirrigación), se observó una mayor acumulación de P uno de los años de estudio que resultó en un aumento en el número de frutos en las parcelas enmendadas. Además, la mayor acumulación de N y P disponible en el suelo al final del ciclo de cultivo indicó el potencial uso de estos materiales como fuente de estos nutrientes. ABSTRACT Nitrogen (N) and phosphorus (P) are essential nutrients in crop production. The development of synthetic fertilizers during the 20th century allowed an intensification of the agriculture increasing crop yields but in turn the great input of nutrients has resulted in some cases in inefficient systems with higher losses to the environment. Regarding P, the scarcity of phosphate rock reserves necessary for the production of phosphate fertilizers aggravates this problem. The use of organic wastes in agriculture as a source of N and P is a good option of management that allows to value the large amount of wastes generated. However, it is important to understand the processes occurring in the soil after application of these materials, as they affect the availability of nutrients that can be used by the crop and the nutrient losses from agricultural systems that can cause problems of contamination. Although soil N dynamic has been more studied than P, the important concern of nitrate pollution in Nitrate Vulnerable Zones requires the evaluation of those management practices that could aggravate this situation, and in the case of organic wastes, the evaluation of the agronomic and environmental response after application of materials with a high N content (such as wastes from winery and distillery industries). On the other hand, due to the complexity of soil P cycle and the reactions that occur in soil, there is less knowledge about the factors that can influence its dynamics in the soil-plant system, which means new opportunities of study regarding the evaluation of the agricultural use of organic wastes. Taking into account the previous knowledge of each nutrient and the specific needs of study, in this Thesis we have evaluated: (1) the effect of the application of wastes from the winery and distillery industries on N dynamics from the agronomic and environmental viewpoint in a vulnerable zone; and (2) the factors that influence P availability in soils after the application of organic wastes. With this purposes, incubations were carried out in laboratory conditions as well as field trials that allow to assess the dynamic of these nutrients in real conditions. Soil incubations under controlled moisture and temperature conditions to determine N mineralization are commonly used to estimate N availability for crops together with the environmental risk. Therefore, a laboratory incubation was conducted in order to determine the N mineralization rate of a compost made from wastes generated in the winery and distillery industries, widely distributed in Castilla-La Mancha, a region with significant problems of aquifers contamination by nitrates. Three increasing doses of compost corresponding to 230, 460 and 690 kg of total N per hectare were mixed with a sandy clay loam soil collected in this area. The evolution of mineral N in soil over time was adjusted to a nonlinear regression model, obtaining low values of potentially mineralizable N and low constants of mineralization, indicating that it is a material resistant to mineralization with a slow release of N, with only 1.61, 1.33 and 1.21% of total N applied being mineralized with each increasing dose of compost (for a period of six months). Furthermore, N mineralization after the application of this material was also evaluated in field conditions by carrying out a N balance during two growing seasons (2011 and 2012) of a melon crop under drip irrigation, a crop and management very characteristic of the area of study. The mineralization constants obtained in the laboratory were adjusted to the actual temperatures observed in the field to predict N mineralized during each growing season, however, this model generally overestimated the N mineralization observed in the field, because of the influence of other factors not taken into account for this prediction, as N accumulated in soil, the plant effect or the fluctuations of temperature and moisture. The fitting of the laboratory data to the model as well as the predictions of N mineralized in the field were better when considering N mineralized from the soil-compost mixture rather than when N mineralized from compost was isolated, underlining the important role of the soil on N mineralization from organic wastes. Since the area of study was declared vulnerable to nitrate pollution and is situated between different protected hydrological units, the risk of nitrate pollution after application of different doses compost was evaluated in the same field trial with melon under two irrigation regimes, irrigation adjusted to the crop needs (90 or 100% of the crop evapotranspiration (ETc)) or excedentary irrigation (120% ETc). Drainage was estimated weekly throughout the growing season by conducting a water balance, samples of the soil solution were taken and the concentration of nitrates was determined. To assess the risk of groundwater contamination associated with these practices, some environmental indices were used to determine the variation in the quality of drinking water (Impact Index (II)) and the nitrates concentration in the groundwater (Environmental Impact Index (EII)). To combine environmental parameters together with yield parameters, the Management Efficiency was calculated. It was observed that the application of compost under irrigation adjusted to the plant needs did not represent a higher risk of groundwater contamination even with the application of the highest doses. However, the application of large amounts of compost combined with an irrigation surplus represented an increase of N leaching during the growing season compared with the unamended plots, while no additional yield with respect to the adjusted irrigation strategy is obtained. The application of wastes derived from the winery and distillery industry as source of P was evaluated in calcareous soils characterized by a high P retention capacity, which in some cases limits the availability of this nutrient. Another incubation experiment was carried out using two soils with different texture, different calcium carbonate and iron contents and two levels of available P; to which different materials from these industries (with and without composting) were applied providing different amounts of P. Soil available P (Olsen P), pH and dissolved organic carbon were analyzed along time. At the end of the incubation, in order to study the changes in soil P status caused by the different residues, a fractionation of soil inorganic P was carried out, which was separated into soluble and weakly bound P (NaOH-NaCl- P), reductant soluble P or occluded in Fe oxides (CBD-P) and P precipitated as poorly soluble Ca-P (HCl-P); and the P retention capacity and degree of P saturation were determined as well. Given the calcareous nature of the soils, the influence of the amount of P applied with the organic wastes in soil available P only occurred at the beginning of the incubation period, while at the end of the trial the increase in soil available P equalled independently of the amount of P applied with each residue, increasing the P retained in the least soluble fraction when increasing P applied. Conversely, the application of less stabilized materials with a lower content of P resulted in an increase in the most labile P forms due to dissolution of P retained in the less labile fraction, demonstrating the influence of organic matter addition on soil P processes that control P availability in soil. As expected, the application of organic wastes increased the degree of P saturation in the soils, however the values obtained did not exceed the limits considered to pose a risk of water pollution. The influence of the application of organic wastes on inorganic and organic soil P forms was also studied in an acid loamy sand soil after long-term field application of cattle manure and biowaste compost and the combined application of compost and mineral fertilizer (triple superphosphate) in a crop rotation. Soil samples were collected 14 years after the establishment of the field experiment, and analyzed for soluble and available P, P sorption capacity, degree of P saturation and enzymatic activities (dehydrogenase, acid phosphatase and alkaline phosphatase). The different forms of organic P in soil were determined by using an enzyme addition technique, based on adding enzymes with different substrate specificities to NaOH-EDTA soil extracts, measuring the hydrolyzed P colorimetrically after an incubation period. The enzymes used were acid phosphatase, nuclease and phytase which allowed to identify hydrolyzable monoesters (monoester-like P) diesters (DNA-like P) and inositol hexakisphosphate (Ins6P-like P). The long-term application of organic wastes increased soil available P proportionally to the P applied with each type of fertilizer, assuming a higher risk of P losses given the high degree of P saturation of this soil. The application of organic wastes increased soil organic P resistant to enzymatic hydrolysis, but no influence was observed regarding the different forms of enzyme hydrolyzable organic P compared to those observed in the non-amended soil. Furthermore, the different forms of organic P applied with the organic wastes did not correspond to those analyzed in the soil which showed that these forms in soil are a result of multifaceted P turnover processes in soil affected by plants, microorganisms and abiotic factors. In this study, a correlation between Ins6P-like P and the microbial activity (dehydrogenase activity) of soil was found, which reinforces this claim. Finally, the application of organic wastes as a source of N and P in agriculture was evaluated agronomically in a real field scenario. A field experiment was established to evaluate the application of compost made from wine-distillery wastes in the same melon crop used in the experiments of N mineralization and leaching. In this experiment the application of three doses of compost were studied: 1 , 2 and 3 kg of compost per linear meter of plantation corresponding to 7, 13 and 20 tonnes of compost per hectare respectively; and the effect on plant growth, N and P accumulation in the plant as well as crop yield and quality was studied. The application of compost produced a slight increase in plant biomass accompanied by a significant improvement in crop yield with respect to the unamended plots, obtaining the maximum yield with the application of 2 kg of compost per linear meter. Although the potential effects of N and P were partially masked by other inputs of these nutrients in the system (high concentration of nitrates in the irrigation water and phosphoric acid supplied by fertigation), an effect of P was observed the first year of study resulting in a greater plant P accumulation and in an increase in the number of fruits in the amended plots. In addition, the higher accumulation of available N and P in the topsoil at the end of the growing season indicated the potential use of this material as source of these nutrients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación de esta tesis se centra en el estudio de técnicas geoestadísticas y su contribución a una mayor caracterización del binomio factores climáticos-rendimiento de un cultivo agrícola. El inexorable vínculo entre la variabilidad climática y la producción agrícola cobra especial relevancia en estudios sobre el cambio climático o en la modelización de cultivos para dar respuesta a escenarios futuros de producción mundial. Es información especialmente valiosa en sistemas operacionales de monitoreo y predicción de rendimientos de cultivos Los cuales son actualmente uno de los pilares operacionales en los que se sustenta la agricultura y seguridad alimentaria mundial; ya que su objetivo final es el de proporcionar información imparcial y fiable para la regularización de mercados. Es en este contexto, donde se quiso dar un enfoque alternativo a estudios, que con distintos planteamientos, analizan la relación inter-anual clima vs producción. Así, se sustituyó la dimensión tiempo por la espacio, re-orientando el análisis estadístico de correlación interanual entre rendimiento y factores climáticos, por el estudio de la correlación inter-regional entre ambas variables. Se utilizó para ello una técnica estadística relativamente nueva y no muy aplicada en investigaciones similares, llamada regresión ponderada geográficamente (GWR, siglas en inglés de “Geographically weighted regression”). Se obtuvieron superficies continuas de las variables climáticas acumuladas en determinados periodos fenológicos, que fueron seleccionados por ser factores clave en el desarrollo vegetativo de un cultivo. Por ello, la primera parte de la tesis, consistió en un análisis exploratorio sobre comparación de Métodos de Interpolación Espacial (MIE). Partiendo de la hipótesis de que existe la variabilidad espacial de la relación entre factores climáticos y rendimiento, el objetivo principal de esta tesis, fue el de establecer en qué medida los MIE y otros métodos geoestadísticos de regresión local, pueden ayudar por un lado, a alcanzar un mayor entendimiento del binomio clima-rendimiento del trigo blando (Triticum aestivum L.) al incorporar en dicha relación el componente espacial; y por otro, a caracterizar la variación de los principales factores climáticos limitantes en el crecimiento del trigo blando, acumulados éstos en cuatro periodos fenológicos. Para lleva a cabo esto, una gran carga operacional en la investigación de la tesis consistió en homogeneizar y hacer los datos fenológicos, climáticos y estadísticas agrícolas comparables tanto a escala espacial como a escala temporal. Para España y los Bálticos se recolectaron y calcularon datos diarios de precipitación, temperatura máxima y mínima, evapotranspiración y radiación solar en las estaciones meteorológicas disponibles. Se dispuso de una serie temporal que coincidía con los mismos años recolectados en las estadísticas agrícolas, es decir, 14 años contados desde 2000 a 2013 (hasta 2011 en los Bálticos). Se superpuso la malla de información fenológica de cuadrícula 25 km con la ubicación de las estaciones meteorológicas con el fin de conocer los valores fenológicos en cada una de las estaciones disponibles. Hecho esto, para cada año de la serie temporal disponible se calcularon los valores climáticos diarios acumulados en cada uno de los cuatro periodos fenológicos seleccionados P1 (ciclo completo), P2 (emergencia-madurez), P3 (floración) y P4 (floraciónmadurez). Se calculó la superficie interpolada por el conjunto de métodos seleccionados en la comparación: técnicas deterministas convencionales, kriging ordinario y cokriging ordinario ponderado por la altitud. Seleccionados los métodos más eficaces, se calculó a nivel de provincias las variables climatológicas interpoladas. Y se realizaron las regresiones locales GWR para cuantificar, explorar y modelar las relaciones espaciales entre el rendimiento del trigo y las variables climáticas acumuladas en los cuatro periodos fenológicos. Al comparar la eficiencia de los MIE no destaca una técnica por encima del resto como la que proporcione el menor error en su predicción. Ahora bien, considerando los tres indicadores de calidad de los MIE estudiados se han identificado los métodos más efectivos. En el caso de la precipitación, es la técnica geoestadística cokriging la más idónea en la mayoría de los casos. De manera unánime, la interpolación determinista en función radial (spline regularizado) fue la técnica que mejor describía la superficie de precipitación acumulada en los cuatro periodos fenológicos. Los resultados son más heterogéneos para la evapotranspiración y radiación. Los métodos idóneos para estas se reparten entre el Inverse Distance Weighting (IDW), IDW ponderado por la altitud y el Ordinary Kriging (OK). También, se identificó que para la mayoría de los casos en que el error del Ordinary CoKriging (COK) era mayor que el del OK su eficacia es comparable a la del OK en términos de error y el requerimiento computacional de este último es mucho menor. Se pudo confirmar que existe la variabilidad espacial inter-regional entre factores climáticos y el rendimiento del trigo blando tanto en España como en los Bálticos. La herramienta estadística GWR fue capaz de reproducir esta variabilidad con un rendimiento lo suficientemente significativo como para considerarla una herramienta válida en futuros estudios. No obstante, se identificaron ciertas limitaciones en la misma respecto a la información que devuelve el programa a nivel local y que no permite desgranar todo el detalle sobre la ejecución del mismo. Los indicadores y periodos fenológicos que mejor pudieron reproducir la variabilidad espacial del rendimiento en España y Bálticos, arrojaron aún, una mayor credibilidad a los resultados obtenidos y a la eficacia del GWR, ya que estaban en línea con el conocimiento agronómico sobre el cultivo del trigo blando en sistemas agrícolas mediterráneos y norteuropeos. Así, en España, el indicador más robusto fue el balance climático hídrico Climatic Water Balance) acumulado éste, durante el periodo de crecimiento (entre la emergencia y madurez). Aunque se identificó la etapa clave de la floración como el periodo en el que las variables climáticas acumuladas proporcionaban un mayor poder explicativo del modelo GWR. Sin embargo, en los Bálticos, países donde el principal factor limitante en su agricultura es el bajo número de días de crecimiento efectivo, el indicador más efectivo fue la radiación acumulada a lo largo de todo el ciclo de crecimiento (entre la emergencia y madurez). Para el trigo en regadío no existe ninguna combinación que pueda explicar más allá del 30% de la variación del rendimiento en España. Poder demostrar que existe un comportamiento heterogéneo en la relación inter-regional entre el rendimiento y principales variables climáticas, podría contribuir a uno de los mayores desafíos a los que se enfrentan, a día de hoy, los sistemas operacionales de monitoreo y predicción de rendimientos de cultivos, y éste es el de poder reducir la escala espacial de predicción, de un nivel nacional a otro regional. ABSTRACT This thesis explores geostatistical techniques and their contribution to a better characterization of the relationship between climate factors and agricultural crop yields. The crucial link between climate variability and crop production plays a key role in climate change research as well as in crops modelling towards the future global production scenarios. This information is particularly important for monitoring and forecasting operational crop systems. These geostatistical techniques are currently one of the most fundamental operational systems on which global agriculture and food security rely on; with the final aim of providing neutral and reliable information for food market controls, thus avoiding financial speculation of nourishments of primary necessity. Within this context the present thesis aims to provide an alternative approach to the existing body of research examining the relationship between inter-annual climate and production. Therefore, the temporal dimension was replaced for the spatial dimension, re-orienting the statistical analysis of the inter-annual relationship between crops yields and climate factors to an inter-regional correlation between these two variables. Geographically weighted regression, which is a relatively new statistical technique and which has rarely been used in previous research on this topic was used in the current study. Continuous surface values of the climate accumulated variables in specific phenological periods were obtained. These specific periods were selected because they are key factors in the development of vegetative crop. Therefore, the first part of this thesis presents an exploratory analysis regarding the comparability of spatial interpolation methods (SIM) among diverse SIMs and alternative geostatistical methodologies. Given the premise that spatial variability of the relationship between climate factors and crop production exists, the primary aim of this thesis was to examine the extent to which the SIM and other geostatistical methods of local regression (which are integrated tools of the GIS software) are useful in relating crop production and climate variables. The usefulness of these methods was examined in two ways; on one hand the way this information could help to achieve higher production of the white wheat binomial (Triticum aestivum L.) by incorporating the spatial component in the examination of the above-mentioned relationship. On the other hand, the way it helps with the characterization of the key limiting climate factors of soft wheat growth which were analysed in four phenological periods. To achieve this aim, an important operational workload of this thesis consisted in the homogenization and obtention of comparable phenological and climate data, as well as agricultural statistics, which made heavy operational demands. For Spain and the Baltic countries, data on precipitation, maximum and minimum temperature, evapotranspiration and solar radiation from the available meteorological stations were gathered and calculated. A temporal serial approach was taken. These temporal series aligned with the years that agriculture statistics had previously gathered, these being 14 years from 2000 to 2013 (until 2011 for the Baltic countries). This temporal series was mapped with a phenological 25 km grid that had the location of the meteorological stations with the objective of obtaining the phenological values in each of the available stations. Following this procedure, the daily accumulated climate values for each of the four selected phenological periods were calculated; namely P1 (complete cycle), P2 (emergency-maturity), P3 (flowering) and P4 (flowering- maturity). The interpolated surface was then calculated using the set of selected methodologies for the comparison: deterministic conventional techniques, ordinary kriging and ordinary cokriging weighted by height. Once the most effective methods had been selected, the level of the interpolated climate variables was calculated. Local GWR regressions were calculated to quantify, examine and model the spatial relationships between soft wheat production and the accumulated variables in each of the four selected phenological periods. Results from the comparison among the SIMs revealed that no particular technique seems more favourable in terms of accuracy of prediction. However, when the three quality indicators of the compared SIMs are considered, some methodologies appeared to be more efficient than others. Regarding precipitation results, cokriging was the most accurate geostatistical technique for the majority of the cases. Deterministic interpolation in its radial function (controlled spline) was the most accurate technique for describing the accumulated precipitation surface in all phenological periods. However, results are more heterogeneous for the evapotranspiration and radiation methodologies. The most appropriate technique for these forecasts are the Inverse Distance Weighting (IDW), weighted IDW by height and the Ordinary Kriging (OK). Furthermore, it was found that for the majority of the cases where the Ordinary CoKriging (COK) error was larger than that of the OK, its efficacy was comparable to that of the OK in terms of error while the computational demands of the latter was much lower. The existing spatial inter-regional variability between climate factors and soft wheat production was confirmed for both Spain and the Baltic countries. The GWR statistic tool reproduced this variability with an outcome significative enough as to be considered a valid tool for future studies. Nevertheless, this tool also had some limitations with regards to the information delivered by the programme because it did not allow for a detailed break-down of its procedure. The indicators and phenological periods that best reproduced the spatial variability of yields in Spain and the Baltic countries made the results and the efficiency of the GWR statistical tool even more reliable, despite the fact that these were already aligned with the agricultural knowledge about soft wheat crop under mediterranean and northeuropean agricultural systems. Thus, for Spain, the most robust indicator was the Climatic Water Balance outcome accumulated throughout the growing period (between emergency and maturity). Although the flowering period was the phase that best explained the accumulated climate variables in the GWR model. For the Baltic countries where the main limiting agricultural factor is the number of days of effective growth, the most effective indicator was the accumulated radiation throughout the entire growing cycle (between emergency and maturity). For the irrigated soft wheat there was no combination capable of explaining above the 30% of variation of the production in Spain. The fact that the pattern of the inter-regional relationship between the crop production and key climate variables is heterogeneous within a country could contribute to one is one of the greatest challenges that the monitoring and forecasting operational systems for crop production face nowadays. The present findings suggest that the solution may lay in downscaling the spatial target scale from a national to a regional level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El bosque tropical de montaña, es considerado zona de mega diversidad y de alto grado de endemismo, por las diferentes zonas ecológicas que presenta. Durante las últimas décadas estos bosques han recibido mayor atención por parte de investigadores, sin embargo, aún existe poca investigación en determinar cuáles son las respuestas de los bosques a los cambios ambientales a los que son sometidos. Estos bosques están sufriendo serias amenazas como pérdida de cobertura vegetal y cambios en los ciclos de nutrientes. El trabajo se dividió en cuatro objetivos específicos. i) Caracterización y análisis de patrones altitudinales de la riqueza de especies en el bosque tropical de montaña en el sur del Ecuador; con el fin de conocer cómo varía la diversidad de especies riqueza lo largo de un gradiente altitudinal. ii) Conocer los patrones espaciales del crecimiento en tres remanentes boscosos de un bosque tropical de montaña para determinar cómo la vecindad y la semejanza funcional de ésta influyen en el crecimiento forestal. iii) Conocer los efectos de la fertilización en el crecimiento diamétrico de especies arbóreas, en el bosque tropical de montaña; se analizó cómo reaccionan los árboles a la adición de nutrientes N y P en tres tipos de bosque. iv) Saber la respuesta de la comunidad de árboles a la adición de nutrientes en el bosque montano andino; este objetivo se basó con el supuesto de la deficiencia de tres tipos de nutrientes N, P y Ca, en esta formación boscosa y cómo reaccionan los árboles a la adición de nutrientes. El presente trabajo se llevó a cabo, en el bosque tropical de montaña que se encuentra localizada en la parte adyacente del Parque Nacional Podocarpus (PNP) en la cordillera del Consuelo, forma parte de la cadena oriental de los Andes del sur del Ecuador El trabajo de desarrollo entre los años 2008 y 2014. Para abordar el primer objetivo se establecieron 54 parcelas ubicadas aleatoriamente a lo largo de un gradiente altitudinal (3 niveles de altitud) y se e midieron e identificaron todos los individuos mayores a 5cm de DAP. Se construyó una filogenia con Phylocom y se calcularon diferentes componentes de diversidad para cada parcela ( riqueza taxonómica, diversidad filogenética y edad media de las especies). Ajustando modelos lineares se contrastó el efecto de la altitud sobre dichos componentes y se vio que la riqueza taxonómica y la edad media de las especies aumentaron con la altitud, en sentido contrario a las predicciones de la "hipótesis del conservadurismo tropical" (Tropical Conservatism Hypothesis). Para abordar el segundo objetivo se realizó una remedición de todos los árboles cartografiados en tres parcelas permanentes de alrededor de 5000 m2 cada una, representativas de tres estados diferentes de la sucesión del bosque montano. A partir de las coordenadas y de los datos de registrados, y empleando diferentes funciones de correlación de marca se analizó la distribución espacial del tamaño y del crecimiento relativo y del tamaño. Se constató que mientras que el tamaño de los árboles presentó una correlación espacial negativa, el crecimiento presentó correlación espacial positiva, en ambos casos a distancias cortas. El rango y la magnitud de ambas correlaciones aumentaron al avanzar la sucesión. La distribución espacial del crecimiento mostró una correlación negativa con la distribución espacial de tamaños. Por otro lado, la distribución espacial del crecimiento mostró una correlación negativa para árboles semejantes funcionalmente y positiva cuando se calculó entre árboles con diferente estrategia funcional. En conjunto, los resultados obtenidos señalan un aumento de la importancia de procesos competitivos y una mayor estructuración espacial del crecimiento y de la distribución de tamaños al avanzar la sucesión. Para el tercer y cuarto objetivo se instalaron 52 parcelas distribuidas en bloques donde se fertilizaron dos veces al año durante 6,4 años, se identificaron todos los individuos mayores a 10 cm de DAP, y se midió el crecimiento diamétrico durante estos años Con la adición de nutrientes realizada a los diferentes tipos de bosque en la gradiente altitudinal, encontramos que el efecto sobre el crecimiento diamétrico en la comunidad varia con el rango altitudinal, y el tipo de nutriente, analizando a nivel de las especies, en la mayoría de los casos las especies comunes no tuvieron cambios significativos a la adición de nutrientes. Los resultados de este estudio aportan nuevas evidencias para el entendimiento de la diversidad, estructura y dinámica de los bosques tropicales de montaña. ABSTRACT The montane tropical forest is considered a megadiverse habitat that harbor an enormous degree of endemism. This is mainly due to the high degree of environmental heterogeneity found and the presence of different well defined ecological areas. These forests have received more attention during the last decades, however, the information regarding the responses of these forests to environmental change, is still scarce. These forests are seriously endangered and are suffering serious threats, such as loss of vegetative cover, changes in the nutrient cycles. The work was divided in four specific objectives: i) Characterization and analysis of the species richness altitudinal patterns in the montane tropical forest of south Ecuador. Specifically, how species diversity changes along altitudinal gradients. ii) Exploring the spatial patterns of tree growth in three remnants of a montane tropical forest, and analyze how tree neighborhood and functional similarity among trees influence tree growth. Tropical Conservatism Hypothesis iii) Understanding the effects of fertilization in arboreal species growth (increase in diameter) of the montane tropical forest. Specifically we studied the effects of P and N addition on three different forests across an altitudinal gradient. iv) Know the response of the community of trees to the addition of nutrients in the Andean montane forest; this objective was based on the supposition of deficiency of three types of nutrients: P, N and Ca in this forest all formation and how the trees react to the addition of these nutrients. The present work was carried out in the montane tropical forest located in Bombuscaro, San Francisco and Cajanuma close to Podocarpus National Park (PNP) on Consuelo mountain range (Andean oriental range) at South of Ecuador. Field work was carried out during 2008 and 2014. To address the first objective, we randomly placed 54 plots along an altitudinal gradient. In these plots, every individual larger than 5 cm of DBH was measured and identified. A phylogeny was build with Phylocom and different diversity components (taxonomic richness, phylogenetic diversity and average species age) were computed for each plot. Linear models were used to test the effects of altitude on the diversity components. Our results showed that, contrary to the Tropical Conservatism Hypothesis, both taxonomic richness and average species age increased with altitude. To address our second objective, all mapped trees in three successional permanent plots (around ~5000 m2 each) were re-measured. Using different mark correlation functions, we analyzed the spatial distribution of tree-size and tree relative growth rate. Whereas tree size showed negative spatial correlation at fine spatial scales, relative growth rate showed positive correlation at the same scales. The range and magnitude of those correlations increased along successional stage. The spatial distribution of the relative growth rate was negatively correlated with the spatial distribution of tree sizes. Additionally, we found that the spatial correlation of the relative growth rate was negative for functionally similar trees and positive when computed for functionally different trees. In synthesis, our results point to an increase of competitive processes and strong spatial structure of relative growth rate and tree size along succession. For the third and fourth objectives, 52 plots were placed in a block design and were fertilized twice a year for 6,4 years. In these plots all the individuals with DBH > 10 cm were identified, and the diametrical growth was measured during these years. The nutrient addition at the three different altitude forests, revealed that the effect on the diametrical growth in the community varied with the altitudinal range. When analyzed at species level, the addition of nutrients was no significant in most cases. These results represent new evidences that will improved our understanding of diversity patterns and structure, and the dynamics of tropical montane forests.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electromagnetic coupling phenomena between overhead power transmission lines and other nearby structures are inevitable, especially in densely populated areas. The undesired effects resulting from this proximity are manifold and range from the establishment of hazardous potentials to the outbreak of alternate current corrosion phenomena. The study of this class of problems is necessary for ensuring security in the vicinities of the interaction zone and also to preserve the integrity of the equipment and of the devices there present. However, the complete modeling of this type of application requires the three- -dimensional representation of the region of interest and needs specific numerical methods for field computation. In this work, the modeling of problems arising from the flow of electrical currents in the ground (the so-called conductive coupling) will be addressed with the finite element method. Those resulting from the time variation of the electromagnetic fields (the so-called inductive coupling) will be considered as well, and they will be treated with the generalized PEEC (Partial Element Equivalent Circuit) method. More specifically, a special boundary condition on the electric potential is proposed for truncating the computational domain in the finite element analysis of conductive coupling problems, and a complete PEEC formulation for modeling inductive coupling problems is presented. Test configurations of increasing complexities are considered for validating the foregoing approaches. These works aim to provide a contribution to the modeling of this class of problems, which tend to become common with the expansion of power grids.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundamentos: Geocodificar es asignar coordenadas geográficas a puntos del espacio, frecuentemente direcciones postales. El error cometido al aplicar este proceso puede introducir un sesgo en las estimaciones de modelos espacio-temporales en estudios epidemiológicos. No se han encontrado estudios que midan este error en ciudades españolas. El objetivo es evaluar los errores en magnitud y direccionalidad de dos recursos gratuitos (Google y Yahoo) respecto a GPS en dos ciudades de España. Método: Se geocodificaron 30 direcciones aleatorias con los dos recursos citados y con GPS en Santa Pola (Alicante) y en Alicante. Se calculó la mediana y su IC95% del error en metros entre los recursos y GPS, para el total y por el status reportado. Se evaluó la direccionalidad del error calculando el cuadrante de localización y aplicando un test Chi-Cuadrado. Se evaluó el error del GPS midiendo 11 direcciones dos veces en un intervalo de 4 días. Resultados: La mediana del error total desde Google-GPS fue de 23,2 metros (16,0-32,2) para Santa Pola y 21,4 metros (14,9-31,1) en Alicante. Para Yahoo fue de 136,0 (19,2-318,5) para Santa Pola y 23,8 (13,6-29,2) para Alicante. Por status, se geocodificó entre un 73% y 90% como ‘exactas o interpoladas’ (menor error), tanto Google como Yahoo tuvieron una mediana del error de entre 19 y 22 metros en las dos ciudades. El error del GPS fue de 13,8 (6,7-17,8) metros. No se detectó direccionalidad. Conclusiones: El error de Google es asumible y estable en las dos ciudades, siendo un recurso fiable para geocodificar direcciones postales en España en estudios epidemiológicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes/Objetivos: El consumo de alimentos es un indicador que mide calidad de la dieta y estado nutricional. El consumo está influido directamente por la estructura de precios relativos a los alimentos. El objetivo es determinar y comparar la calidad de la dieta de la población española entre los años 2006 y 2011, y su relación con las variables socioeconómicas. Métodos: Estudio trasversal utilizando los datos de la Encuesta Nacional de Salud (ENS) 2006 y 2011. La muestra de la ENS-06 está compuesta por 29.478 personas, mujeres 15.019; hombres 14.459, y la del 2011 por 20.884 personas, mujeres 10.696; hombres 10.188. Variables: sexo, edad, grupos de alimentos, frecuencia de consumo, clase social (clase I, II y III hacen referencia a trabajos no manuales, clase IV y V trabajos manuales) y nivel de estudios. Se calculó el Índice de Alimentación Saludable (IASE) a partir de los grupos de alimentos, frecuencia de consumo y recomendaciones dietéticas (SENC, 2004). El IASE clasifica la alimentación en: saludable, necesita cambios y poco saludable. Se calculó la tasa de variación entre los dos años y se realizó un contraste de proporciones. Se utilizó el programa Excel y el paquete estadístico SPSS 20.0. Resultados: La prevalencia de hombres con alimentación saludable ha aumentado 7,6% respecto al 2006 (p-valor = 0,001), mientras que las mujeres con alimentación poco saludable ha aumentado 3,7%. Las personas de 45-64 años con una alimentación poco saludable han aumentado un 42,9% respecto al 2006 (p-valor = 0,001). Sin embargo los jóvenes de 16-24 años con alimentación poco saludable han disminuido un 29,5% (p-valor < 0,001). La población sin estudios con una alimentación poco saludable ha aumentado un 76,5% (p-valor < 0,001). La población con trabajos no manuales (clase I), como directivos de empresas que se alimentan saludablemente ha aumentado 14,3% respecto al 2006 (p-valor = 0,001), y la población con trabajos manuales (clase IV) que se alimenta saludablemente ha disminuido un 9,9%. Conclusiones: Las personas con mejores trabajos no-manuales han mejorado su alimentación, mientras que la población con trabajos manuales con alimentación poco saludable también han aumentado. La crisis económica actual puede estar influyendo en los cambios observados en la calidad de la dieta de la población española.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes/Objetivos: La etapa universitaria se caracteriza por cambios en estilos de vida y, la alimentación es uno de los de mayor variación, especialmente en los primeros cursos. El objetivo de este estudio es describir la frecuencia de consumo de alimentos y la calidad de la dieta de los universitarios españoles. Métodos: Estudio observacional, descriptivo, transversal, multicéntrico de estudiantes universitarios de primer año participantes en el proyecto uniHcos. Población de 1363 estudiantes, 72,6% mujeres y 27,4% hombres de 6 universidades españolas. Los participantes respondieron un cuestionario online de frecuencia de consumo de alimentos: A diario; 3-4 veces/semana pero no diario; 1-2 veces/semana; < 1 vez/semana; Nunca/casi-nunca. Para interpretar los resultados los alimentos se categorizaron según guías-dietéticas SENC-2004 en consumo: diario (pasta, pan-cereales, fruta, verduras, lácteos); semanal (carnes, huevos, pescado, legumbres) y ocasional (embutidos, dulces, refrescos con azúcar. A partir de estos datos se calculó el Índice de Alimentación Saludable (IASE) para determinar la calidad de la dieta. Se clasificó en saludable, necesita cambios y poco saludable. Se realizaron estadísticos descriptivos mediante el software estadístico SPSS 20.0. Resultados: El 38,1% de los universitarios consumen frutas a diario, 21,4% verduras, 74,5% lácteos, 60% pan-cereales y 15% pasta. Semanalmente, el 55,3% consumen carne 3-4 veces/semana, 20,7% huevos, 22,2% pescado y 25,5% legumbres. Además, el 13,3%, 22,2% y 10,2% de los universitarios declaran consumir a diario embutido, dulces y refrescos con azúcar respectivamente. Estos resultados van en concomitancia con los del IASE estadísticamente significativos (p-valor < 0,001), donde se muestra que 6,5% de los universitarios se alimentan saludablemente (mujer: 6,9%; hombre: 5,3%), frente a 78% que necesitan cambios (mujer: 76,7%; hombre: 81,3%) y 15,6% que presentan una alimentación poco saludable, siendo mayor en mujeres (16,4%) que en hombres (13,4%). Conclusiones: La alimentación de los universitarios españoles sigue siendo poco saludable y necesitando cambios, como muestran otros estudios en población universitaria. Los patrones alimentarios de consumo semanal de embutidos, dulces, como el de frutas, verduras y pasta, muestra una inversión de la alimentación saludable y, por tanto un problema de salud pública que requiere de atención por ser población que inicia su camino universitario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los estudios epidemiológicos realizados hasta la fecha en neonatos hospitalizados son escasos. En España en las unidades neonatales las cifras de prevalencia se mueven entre un 50% en unidades de cuidados intensivos (UCIN) y un 12,5% en unidades de hospitalización. Desde todas las organizaciones de salud, nacionales (GNEAUPP) e internacionales (EPUAP, EWMA, NPUAP) relacionadas con las heridas, se promociona y potencia la seguridad del paciente mediante la prevención de los efectos adversos hospitalarios. Para conseguirlo es necesario dotar a los profesionales sanitarios de herramientas validadas y adaptadas a la edad neonatal que permitan valorar el riesgo de la población hospitalizada. De esta forma los profesionales sanitarios podrán gestionar de forma eficiente los recursos preventivos y trazar planes de cuidados centrados en el neonato. En la actualidad, en España no existe ninguna escala validada específicamente para neonatos. Por tanto, el objetivo principal de nuestro equipo de investigación fue adaptar transculturalmente al contexto español la escala NSRAS original y evaluar la validez y la fiabilidad de la versión en español. En esta ponencia se presentarán los resultados preliminares de la tesis. Método. El estudio se subdividió en tres fases. En la primera fase se realizó la adaptación transcultural de la escala NSRAS original mediante el método de traducción con retrotraducción. Posteriormente entre un grupo de expertos se calculó la validez de contenido mediante el IVC. La versión de la escala adaptada fue evaluada mediante dos fases de estudio multicéntrico observacional analítico en las unidades neonatales de 10 hospitales públicos del Sistema Nacional de Salud. Se evaluó la fiabilidad interobservadores e intraobservadores, la validez de constructo en la segunda fase y en una tercera fase se evaluó la capacidad predictiva y el punto de corte de la versión en español de la escala NSRAS. Resultados. En la primera fase la validez de contenido evaluada obtuvo un IVC de 0,926 [IC95%0,777-0,978]. En la segunda fase, la muestra evaluada fue de 336 neonatos. La consistencia interna mostró un Alfa de Cronbach de 0,794. Y la fiabilidad intraobservadores fue de 0,932 y la fiabilidad interobservadores fue de 0,969. En la tercera fase la muestra evaluada fue de 268 neonatos. El análisis multivariante de la relación entre los factores de riesgo, las medidas preventivas y la presencia de UPP mostró que 3 variables eran significativas: la puntuación NSRAS, la duración del ingreso y el uso de VMNI. Siendo de esta forma la puntuación NSRAS (debido a que activa las medidas preventivas) un factor protector frente a UPP. Es decir, a mayor puntuación de NSRAS, menor riesgo de UPP. La valoración clinicométrica de la puntuación 17 mostró una sensibilidad del 91,18%, una especificidad de 76,5%, un VPN de 36,05% y un VPP de 98,35%. El área bajo la curva ROC fue de 0,8384 en la puntuación 17. Conclusiones. La versión en español de la escala NSRAS es una herramienta válida y fiable para medir el riesgo de UPP en la población neonatal hospitalizada en el contexto español. Los neonatos hospitalizados con una puntuación igual o menor a 17 están en riesgo desarrollar UPP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción: El baloncesto presenta una gran heterogeneidad antropométrica entre jugadores en relación a la posición de juego. El base suele ser el más bajo del equipo pero también el más rápido. El escolta suele ser similar al base, más bajo, rápido y ágil que el resto. El alero es de una altura intermedia entre los jugadores interiores y exteriores, combina la altura con la velocidad, y el pívot tiene un rol más físico, es el más alto y con mayor masa muscular. El objetivo del estudio es describir el perfil cineantropométrico del equipo cadete masculino del Valencia Basket Club. Material y Métodos: Se han evaluado 20 jugadores de baloncesto cadete masculino (15,35±0,59años). Un antropometrista nivel I tomó las medidas según la metodología de la Society for the Advancement of Kinanthropometry (ISAK). Se calculó la composición corporal según el consenso de cineantropometría del Grupo Español de Cineantropometría (GREC), el somatotipo según Heath-Carter, e índices adiposo-musculares. Resultados: Se observaron diferencias en los valores de peso, talla, pliegues cutáneos y composición corporal, de las variables estudiadas de la muestra total y por posición de juego, siendo los valores menores los de la posición base y mayores en los pívots. Se estableció una tendencia creciente de estos parámetros en el siguiente orden: base, escolta, alero y pívot. Conclusiones: El somatotipo global del jugador de baloncesto cadete del Valencia Basket Club es ectomorfo balanceado. Conocer el perfil cineantropométrico puede beneficiar la elaboración de planes de entrenamiento y nutrición, así como reflejar la evolución y dirigirla hacia las características ligadas al rendimiento óptimo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Natural anthocyanin pigments/dyes and phenolic copigments/co-dyes form noncovalent complexes, which stabilize and modulate (in particular blue, violet, and red) colors in flowers, berries, and food products derived from them (including wines, jams, purees, and syrups). This noncovalent association and their electronic and optical implications constitute the copigmentation phenomenon. Over the past decade, experimental and theoretical studies have enabled a molecular understanding of copigmentation. This review revisits this phenomenon to provide a comprehensive description of the nature of binding (the dispersion and electrostatic components of π–π stacking, the hydrophobic effect, and possible hydrogen-bonding between pigment and copigment) and of spectral modifications occurring in copigmentation complexes, in which charge transfer plays an important role. Particular attention is paid to applications of copigmentation in food chemistry.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: There are few studies demonstrating the link between neural oscillations in magnetoencephalography (MEG) at rest and cognitive performance. Working memory is one of the most studied cognitive processes and is the ability to manipulate information on items kept in short-term memory. Heister & al. (2013) showed correlation patterns between brain oscillations at rest in MEG and performance in a working memory task (n-back). These authors showed that delta/theta activity in fronto-parietal areas is related to working memory performance. In this study, we use resting state MEG oscillations to validate these correlations with both of verbal (VWM) and spatial (SWM) working memory, and test their specificity in comparison with other cognitive abilities. Methods: We recorded resting state MEG and used clinical neuropsychological tests to assess working memory performance in 18 volunteers (6 males and 12 females). The other neuropsychological tests of the WAIS-IV were used as control tests to assess the specificity of the correlation patterns with working memory. We calculated means of Power Spectrum Density for different frequency bands (delta, 1-4Hz; theta, 4-8Hz; alpha, 8-13Hz; beta, 13-30Hz; gamma1, 30-59Hz; gamma2, 61-90Hz; gamma3, 90-120Hz; large gamma, 30-120Hz) and correlated MEG power normalised for the maximum in each frequency band at the sensor level with working memory performance. We then grouped the sensors showing a significant correlation by using a cluster algorithm. Results: We found positive correlations between both types of working memory performance and clusters in the bilateral posterior and right fronto-temporal regions for the delta band (r2 =0.73), in the fronto-middle line and right temporal regions for the theta band (r2 =0.63) as well as in the parietal regions for the alpha band (r2 =0.78). Verbal working memory and spatial working memory share a common fronto-parietal cluster of sensors but also show specific clusters. These clusters are specific to working memory, as compared to those obtained for other cognitive abilities and right posterior parietal areas, specially in slow frequencies, appear to be specific to working memory process. Conclusions: Slow frequencies (1-13Hz) but more precisely in delta/theta bands (1-8Hz), recorded at rest with magnetoencephalography, predict working memory performance and support the role of a fronto-parietal network in working memory.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.