1000 resultados para Método do valor residual
Resumo:
La lucha contra el cambio climático es uno de los retos ambientales más importantes de este siglo XXI. Para alcanzar el objetivo de reducir las emisiones de gases de efecto invernadero es necesario desarrollar herramientas aplicables a todas las actividades de la economía con las que medir el impacto generado por la actividad del hombre. La Huella de Carbono (HC) forma parte de un conjunto de indicadores desarrollados para responder a esta necesidad. Nuestra línea de trabajo parte del hecho de que la demanda de una baja HC puede ser un factor clave para estimular cambios en los hábitos de consumos y para mejorar la eficiencia en los procesos de producción. Sin embargo, una de las principales dificultades halladas al respecto es la diferencia de enfoques para el cálculo de la HC de producto y la HC de organización. De igual manera existen importantes dificultades en el establecimiento de los límites del sistema en estudio. Para asegurar el éxito de la implantación de la HC en la sociedad, es necesario el establecimiento de los mismos criterios en los distintos estudios. Por este camino, la comparabilidad esta comprometida y con ello la confianza del consumidor. Los avances en el cálculo de HC se basan en dos propuestas ampliamente conocidas: El Análisis de Ciclo de Vida y la Extensión Ambiental del Análisis Input-Output. Ambas metodologías tienen relevantes aspectos positivos y negativos. Por lo tanto, la hibridación entre ambos enfoques supone una clara oportunidad en la búsqueda de sinergias. En respuesta a esta demanda, diferentes herramientas de enfoque híbrido están siendo desarrolladas. La investigación de esta tesis doctoral parte del avance desarrollado en la concepción del Método Compuesto de las Cuentas Contables (MC3). El MC3 es un método de análisis híbrido por niveles que desarrolla un cálculo exhaustivo de la HC de organización para el posterior cálculo de la HC de producto. Esta investigación tiene como objetivo general evaluar el MC3 como herramienta de cálculo de la HC, válida tanto para organización como para producto. En este sentido, se analizan pormenorizadamente cuatro casos de estudios con características innovadoras. Tres de ellos empleando el MC3 en diferentes unidades de estudio: organización, producto y escenario internacional. La aplicación a organización se realiza sobre un centro universitario, permitiendo el análisis detallado de diferentes aspectos metodológicos. La aplicación a producto compara los resultados del MC3 con la aplicación tradicional de un Análisis de Ciclo de Vida. El escenario internacional se desarrolla en Brasil sobre la producción energética en un parque eólico de grandes dimensiones. Por último, el caso de estudio 4 se basa en la Extensión Ambiental del Análisis Multi-Region Input-Output. Este estudio elabora una nueva aproximación para el análisis del impacto generado por un hipotético cierre del comercio internacional. Estos estudios son discutidos en su conjunto a fin de poner en valor las fortalezas de las innovaciones implementadas con un sentido integrador. También se proponen estrategias futuras que permitan mejorar la propuesta metodológica del MC3 con el punto de mira puesto en la internacionalización y la armonización con los estándares internacionales de la HC. Según la experiencia desarrollada, el MC3 es un método de cálculo de la HC práctico y válido para evaluar la cantidad de emisiones directas e indirectas de gases de efecto invernadero de cualquier tipo de actividad. Una de las principales conclusiones es que el MC3 puede ser considerado una herramienta válida para el ecoetiquetado global de bienes y servicios que permita, tanto a empresas como a consumidores, funcionar como motores de cambios hacia una economía dinamizada por la búsqueda de la racionalización en el uso de los recursos.
Resumo:
La presente tesis constituye un avance en el estudio de los métodos para cuantificar la fibra soluble y los efectos de las fracciones de fibra y las fuentes de fibra sobre la digestión de las diferentes fracciones de fibra (soluble e insoluble) en el conejo. Hay un efecto positivo de la fibra soluble sobre la salud intestinal de los conejos y, por ende, una reducción de la mortalidad en animales destetados. Pese a esto, no está claro si estos efectos se deben específicamente a la fracción soluble. Por lo que los objetivos generales de esta tesis fueron: 1) comparar diferentes metodologías químicas e in vitro para cuantificar la fibra soluble y estudiar las posibles interferencias en la cuantificación de la fibra soluble por las mucinas, y viceversa, 2) determinar los efectos de la fibra, el lugar de fermentación, el método para valorar la fibra soluble e insoluble, y la corrección de la fibra soluble por el contenido intestinal de mucinas sobre la digestibilidad de las distintas fracciones de la fibra y 3) evaluar los efectos individuales de las fracciones soluble e insoluble de la fibra de pulpa de remolacha y de manzana, sobre la digestibilidad de la fibra soluble e insoluble y los parámetros digestivos. Para ello se llevaron a cabo 4 estudios. En el primer estudio se compararon diferentes metodologías químicas e in vitro para valorar la fibra soluble de diferentes alimentos y se estudió la posible interferencia en la determinación de la fibra soluble y mucinas. Para ello se utilizaron seis ingredientes (pulpa de remolacha, pectinas de pulpa de remolacha, pulpa de remolacha lavada, paja de cereal, cascarilla de girasol y lignocelulosa) y siete piensos de conejos con diferentes niveles de fibra soluble. En un primer experimento se analizó la fibra dietética total (FDT), la fibra dietética insoluble (FDI), la fibra dietética soluble (FDS), la fibra neutro detergente corregida por cenizas y proteínas (aFNDmo-pb), y la digestibilidad in vitro 2 pasos pepsina/pancreatina (residuo corregido por cenizas y proteína, ivMSi2) de los ingredientes y piensos. Además la fibra soluble se calculó mediante la diferencia entre FDT-FDI (FDSFDI), FDT- ivMSi2 (FDSivMSi2), y FDT - aFNDmo-pb (FDSaFNDmo-pb). Cuando la fibra soluble se determinó directamente como FDS o se calculó como FDT-FDI no se observaron diferencias (109 g/kg MS, en promedio). Sin embargo, cuando la fibra soluble se calculó como FDT - aFNDmo-pb su valor fue un 40% menor (153 g/kg MS. P < 0,05), mientras que la FDSFDI (124 g/kg MS) no fue diferente a ninguna de las otras metodologías. La correlación entre los tres métodos fue elevada (r > 0,96. P < 0,001. n = 13), pero disminuyó o incluso desapareció cuando la pulpa o las pectinas de la remolacha fueron excluidas del análisis. En un segundo experimento, se comparó el método ivDMi2 usando crisoles (método de referencia) con una modificación del mismo usando bolsas ANKOM digeridas individualmente o en colectivo para simplificar la determinación de la FDSivMSi2. La FDSivMSi2 no difirió entre los métodos comparados. En un tercer experimento, se analizó la posible interferencia entre la determinación de la fibra soluble y las mucinas intestinales. Se observó un contenido de FDT y de mucinas elevado en las muestras de pectinas de remolacha (994 y 709 g/kg MS), así como en el moco intestinal de conejo (571 y 739 g/kg MS) cuando se aplicó el método de mucinas por precipitación con etanol. Sin embargo, después de aplicar una pectinasa en el material precipitado, la cantidad de mucinas recuperadas en las muestras de pectinas de remolacha fue cercana a cero, mientras que en el moco intestinal fue similar a los resultados previos al uso de la enzima. Con los resultados de este ensayo se estimaron los carbohidratos de mucinas retenidos en los contenidos digestivos y se propuso una corrección para la determinación de la digestibilidad de la FDT y fibra soluble. En conclusión, la contaminación de las mucinas de la digesta con fibra soluble se soluciona usando pectinasas. El segundo estudio se centró en estudiar: 1) el efecto del tipo de fibra, 2) el sitio de fermentación, 3) el método para cuantificar fibra y 4) la corrección por mucinas sobre la digestibilidad de la fibra. Para ello se formularon tres piensos con diferentes niveles de fibra soluble (FDT-aFNDmo-pb). Un pienso bajo en fibra soluble (LSF. 85 g/kg DM), un pienso medio en fibra soluble (MSF. 102 g/kg DM), y un pienso alto en fibra soluble (HSF. 145 g/kg DM). Estos piensos se obtuvieron reemplazando un 50% del heno del alfalfa en el pienso MSF por una mezcla de pulpa de manzana y remolacha (HSF) o por una mezcla de cascarilla de avena y proteína de soja (LSF). Se utilizaron 30 conejas canuladas para determinar la digestibilidad ileal y fecal. La digestibilidad cecal se calculó mediante diferencia entre la digestibilidad fecal e ileal. La fibra insoluble se determinó como aFNDmo-pb, IDF, e ivMSi2, mientras que la fibra soluble se calculó como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2. La digestibilidad de la FDT y la fibra soluble se corrigieron por las mucinas. La concentración de mucinas en la digesta ileal y fecal, aumento desde el grupo LSF hasta el grupo con el pienso HSF (P < 0,01). La corrección por mucinas aumentó las digestibilidades de la FDT y la fibra soluble a nivel ileal, mientras que a nivel cecal las redujo. (P < 0.01). El coeficiente de digestibilidad ileal de FDT aumentó desde el grupo LSF al grupo HSF (0,12 vs. 0,281. P < 0,01), sin diferencias en el coeficiente de digestibilidad cecal (0,264), por lo que la tendencia a nivel fecal entre los grupos se mantuvo. El coeficiente de digestibilidad ileal de la fibra insoluble aumento desde el grupo con el pienso LSF al grupo con el pienso HSF (0,113 vs. 0,210. P < 0,01), sin diferencias a nivel cecal (0,139) y sin efecto del método usado, resultando en una digestibilidad elevada a nivel fecal, con tendencias similares a las observadas a nivel ileal. El coeficiente de digestibilidad de la FND fue elevada en comparación con la FDI o la ivMSi2 (P > 0.01). El coeficiente de la digestibilidad ileal de la fibra soluble fue mayor en el grupo LSF respecto al grupo LSF (0,436 vs. 0,145. P < 0,01) y el método no afectó a esta determinación. El coeficiente de la digestibilidad cecal de la fibra soluble se redujo desde el grupo LSF hasta el grupo HSF (0,721 vs. 0,492. P < 0,05). El valor más bajo de digestibilidad cecal y fecal de fibra soluble fue medido con el método FDSaFNDmo-pb (P < 0,01). Se observó una alta correlación entre las digestibilidades de la fibra soluble determinada como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2, por lo tanto la información proporcionada por una u otra metodología fueron similares. Sin embargo, cuando se compararon con efectos fisiológicos (producción de mucinas y peso del ciego y pH del ciego de un trabajo previo), la FDSaFNDmo-pb globalmente mostró estar mejor correlacionado con estos parámetros fisiológicos. En conclusión, la corrección por mucinas es necesaria para determinar la digestibilidad ileal de la FDT y fibra soluble, mientras que la elección de uno u otro método es menos relevante. La inclusión de pulpa de manzana y remolacha incrementa la cantidad de FDT que desaparece antes de llegar al ciego. En el tercer estudio se estudió el efecto de la fracción fibrosa soluble e insoluble de la pulpa de remolacha y el método de cuantificación de la fibra soluble e insoluble sobre la digestibilidad de la fibra y algunos parámetros digestivos. Para ello se formularon cuatro piensos con niveles similares de fibra insoluble (315g aFNDmo-pb/kg MS) y proteína (167 g/kg MS). El pienso control contuvo el nivel más bajo de fibra soluble (30,3 g/kg, con cascarilla de girasol y paja como fuente de fibra). Un segundo pienso se obtuvo mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de remolacha (82,9 g fibra soluble/kg MS). Los otras dos piensos resultaron de la sustitución parcial de las fuentes de fibra del pienso control por la fracción insoluble de la pulpa de remolacha y la pulpa de remolacha entera (42.2 y 82.3 g fibra soluble/kg MS, respectivamente). Cincuenta y seis conejos en cebo (14/pienso), de 2,4 0.21 kg de peso, fueron usados para determinar la digestibilidad ileal y fecal de la FDT, FDI, aFNDmo-pb, FDSFDI, y FDSaFNDmo-pb. La concentración de mucinas en el íleon y heces se utilizaron para corregir la digestibilidad de la FDT y fibra soluble. También se midió el peso de diferentes segmentos del tracto digestivo y el pH del contenido digestivo. Los conejos alimentados con el pienso de fibra insoluble de pulpa de remolacha mostraron los consumos más bajos con respecto a los demás grupos (124 vs. 139 g/d, respectivamente. P < 0,05). El flujo de mucinas ileales fue más alto (P < 0.05) en el grupo alimentado con el pienso de pectinas de remolacha (9,0 g/d en promedio) que los del grupo control (4,79 g/d), mostrando los otros dos grupos valores intermedios, sin detectarse diferencias a nivel fecal. La digestibilidad ileal de la FDT (corregida por mucinas) y la fibra insoluble no se vieron afectadas por el tipo de pienso. El método usado para determinar la fibra insoluble afectó su digestibilidad ileal (0,123 para FDI vs. 0,108 para aFNDmo-pb. P < 0.01). De todas formas, los métodos no afectaron al cálculo de la fibra fermentada antes del ciego (4,9 g/d en promedio). Los conejos alimentados con el pienso de pulpa de remolacha y con el pienso con la fracción insoluble de la pulpa de remolacha mostraron las digestibilidades fecales más altas de la fibra insoluble (0,266 en promedio vs. 0,106 del grupo control), mientras que en los animales del pienso con pectinas esta digestibilidad fue un 47% mayor respecto al pienso control (P < 0,001). La digestibilidad fecal de la fibra insoluble fue un 20% más alta cuando se usó la FND en lugar de FDI para determinarla (P < 0.001). Esto hizo variar la cantidad de fibra insoluble fermentada a lo largo del tracto digestivo (9,5 ó 7,5 g/d cuando fue calculada como FDI o aFNDmo-pb, respectivamente. P < 0,001). Las digestibilidades ileales de la fibra soluble fueron positivas cuando los análisis de fibra soluble de los contenidos ileales fueron corregidos por mucinas, (P < 0,001) excepto para la digestibilidad ileal de la FDSIDF del grupo control. Una vez corregidas por mucinas, los conejos alimentados con los piensos que contuvieron la fracción soluble de la pulpa de remolacha (pienso de pectina y pulpa de remolacha) mostraron una mayor digestibilidad ileal de la fibra soluble, respecto al grupo control (0,483 vs. -0,010. P = 0.002), mientras que el grupo del pienso de fibra insoluble de pulpa de remolacha mostró un valor intermedio (0,274). La digestibilidad total de la fibra soluble fue similar entre todos los grupos (0.93). Los conejos alimentados con pulpa de remolacha y su fracción insoluble mostraron los pesos relativos más altos del estómago respecto a los del pienso control y de pectinas (11 y 56 % respectivamente; P < 0,05). Por otra parte, el peso relativo del ciego aumentó en los animales que consumieron tanto la fracción soluble como insoluble de la pulpa de remolacha, siendo un 16% más pesados (P < 0,001) que el grupo control. El pH del contenido cecal fue más bajo en los animales del grupo de pulpa de remolacha que en los del grupo control (5,64 vs. 6,03; P < 0,001), mientras que los del grupo de pectinas y de fibra insoluble de pulpa de remolacha mostraron valores intermedios. En conclusión, el efecto positivo de la pulpa de remolacha en el flujo de mucinas a nivel ileal se debe a la fracción soluble e insoluble de la pulpa de remolacha. La mitad de la fibra soluble de la pulpa de remolacha desaparece antes de llegar al ciego, independientemente si esta proviene de pectinas puras o de la pulpa de remolacha. El pH cecal esta mejor correlacionado con la cantidad de FDT que desaparece antes del ciego más que con la que se degrada en el ciego. En el último estudio se estudiaron los efectos de la fibra soluble e insoluble de la pulpa de manzana sobre la digestibilidad de la fibra y algunos parámetros digestivos. Cuatro dietas fueron formuladas con niveles similares de fibra insoluble (aFNDmo-pb 32,4%) y proteína (18,6% ambos en base seca). El pienso control contuvo el nivel más bajo de fibra soluble (46 g de fibra soluble/kg, con cascarilla de girasol y paja de cereales como la fuentes de fibra). Un segundo pienso fue obtenido mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de manzana (105 g fibra soluble/kg). Los otros dos piensos se obtuvieron por la substitución de parte de las fuentes de fibra del pienso control por pulpa de manzana o pulpa de manzana despectinizada (93 y 71 g de fibra soluble/kg, respectivamente). La digestibilidad fecal fue determinada en 23 conejos/pienso con 1.68 ± 0.23 kg de peso vivo, los cuales fueron sacrificados a los 60 d edad para recolectar su contenido digestivo para determinar digestibilidad ileal y otros parámetros digestivos. La fibra soluble de manzana (pectinas y pulpa entera) estimuló el flujo ileal de mucinas (P = 0,002), pero no asi la pulpa despectinizada. La corrección por mucinas incrementó la digestibilidad de la FDT y la fibra soluble a nivel fecal, y especialmente a nivel ileal. Cerca de la mitad de la fibra soluble proveniente de los piensos con cualquiera de las fracciones de la pulpa de manzana fue degradada a nivel ileal, sin mostrar diferencias entre los grupos (46 y 86% en promedio a nivel ileal y fecal respectivamente). La inclusión de pulpa despectinizada de manzana mejoró la digestibilidad de la FND a nivel fecal (P < 0,05) pero no a nivel ileal. El contenido cecal de los conejos alimentados con la pulpa de manzana tuvieron el pH cecal más ácido que los del pienso control (5,55 vs. 5,95. P < 0,001), mientras que los animales con el pienso de pectinas de manzana y de pulpa de manzana despectinizada mostraron valores intermedios. En conclusión los efectos positivo de la pulpa de manzana en el flujo de mucinas se debió principalmente a la fracción soluble de la pulpa de manzana. La mitad de la fibra soluble fue degradada antes del ciego independientemente de si esta provino de las pectinas o de la pulpa de manzana. El pH cecal estuvo mejor correlacionado con la cantidad de FDT fermentada en todo el tracto digestivo y antes de llegar al ciego que con la que se degradó en el ciego. Al integrar los resultados de los estudio 2, 3 y 4 se concluyó que la corrección de mucinas de los contenidos digestivos al determinar FDT y fibra soluble es necesaria para ajustar los cálculos de su digestibilidad. Esta corrección es mucho más importante a nivel ileal y en dietas bajas en fibra soluble. Por otra parte, la FDT desapareció en proporciones importantes antes de llegar al ciego, especialmente en piensos que contienen pulpa de remolacha o de manzana o alguna fracción soluble o insoluble de las mismas y estas diferencias observadas entre los piensos a nivel ileal se correlacionaron mejor con el pH cecal, lo que indicaría que la FDT se solubilizó antes de llegar al ciego y una vez en esté fermentó. Estos resultados implican que determinar la fibra soluble como FDSaFNDmo-pb es la mejor opción y que en la determinación de la digestibilidad de la FDT y fibra soluble se debe considerar la corrección por mucinas especialmente a nivel ileal y en piensos bajos en fibra soluble. ABSTRACT The present thesis constitutes a step forward in advancing the knowledge of the methods to quantify soluble fibre and the effects of the fibre fractions and source of fibre on the site the digestion of different fractions of fibre (soluble and insoluble) in the rabbit. There is a positive effect of soluble fibre on rabbit digestive health and therefore on the reduction of mortality in weaning rabbits. Nevertheless, it is no so clear that the effects of soluble fibre on rabbits are due particularly to this fraction. This thesis aims: 1) to compare the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and to study the potential interference between soluble fibre and mucin determinations, 2) to identify the effects of type of fibre, site of fermentation, method to quantify insoluble and soluble fibre, and correction of the intestinal soluble fibre content for intestinal mucin on the digestibility of fibre fractions and 3) to evaluate the individual effect of soluble and insoluble fibre from sugar beet pulp and apple pulp on ileal and faecal soluble and insoluble digestibility and digestive traits. These objectives were developed in four studies: The first study compared the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and studied the potential interference between soluble fibre and mucin determinations. Six ingredients, sugar beet pulp (SBP), SBP pectins, insoluble SBP, wheat straw, sunflower hulls and lignocellulose, and seven rabbit diets, differing in soluble fibre content, were evaluated. In experiment 1, ingredients and diets were analysed for total dietary fibre (TDF), insoluble dietary fibre (IDF), soluble dietary fibre (SDF), aNDFom (corrected for protein, aNDFom-cp) and 2-step pepsin/pancreatin in vitro DM indigestibility (corrected for ash and protein, ivDMi2). Soluble fibre was estimated by difference using three procedures: TDF - IDF (SDFIDF), TDF - ivDMi2 (SDFivDMi2), and TDF - aNDFom-cp (SDFaNDFom-cp). Soluble fibre determined directly (SDF) or by difference, as SDFivDMi2 were not different (109 g/kg DM, on average). However, when it was calculated as SDFaNDFom-cp the value was 40% higher (153 g/kg DM, P < 0.05), whereas SDFIDF (124 g/kg DM) did not differ from any of the other methods. The correlation between the four methods was high (r ≥ 0.96. P ≤ 0.001. n = 13), but it decreased or even disappeared when SBP pectins and SBP were excluded and a lower and more narrow range of variation of soluble fibre was used. In experiment 2, the ivDMi2 using crucibles (reference method) were compared to those made using individual or collective ankom bags in order to simplify the determination of SDFivDMi2. The ivDMi2 was not different when using crucibles or individual or collective ankom bags. In experiment 3, the potential interference between soluble fibre and intestinal mucin determinations was studied using rabbit intestinal raw mucus, digesta and SBP pectins, lignocelluloses and a rabbit diet. An interference was observed between the determinations of soluble fibre and crude mucin, as the content of TDF and apparent crude mucin were high in SBP pectins (994 and 709 g/kg DM) and rabbit intestinal raw mucus (571 and 739 g/kg DM). After a pectinase treatment, the coefficient of apparent mucin recovery of SBP pectins was close to zero, whereas that of rabbit mucus was not modified. An estimation of the crude mucin carbohydrates retained in digesta TDF is proposed to correct TDF and soluble fibre digestibility. In conclusion, the values of soluble fibre depend on the methodology used. The contamination of crude mucin with soluble fibre is avoided using pectinase. The second study focused on the effect of type of fibre, site of fermentation, method for quantifying insoluble and soluble dietary fibre, and their correction for intestinal mucin on fibre digestibility. Three diets differing in soluble fibre were formulated (85 g/kg DM soluble fibre, in the low soluble fibre [LSF] diet; 102 g/kg DM in the medium soluble fibre [MSF] diet; and 145 g/kg DM in the high soluble fibre [HSF] diet). They were obtained by replacing half of the dehydrated alfalfa in the MSF diet with a mixture of beet and apple pulp (HSF diet) or with a mix of oat hulls and soybean protein (LSF diet). Thirty rabbits with ileal T-cannulas were used to determine total tract apparent digestibility (CTTAD) and ileal apparent digestibility (CIAD). Caecal digestibility was determined by difference between CTTAD and CIAD. Insoluble fibre was measured as aNDFom-cp, IDF, and ivDMi2, whereas soluble fibre was calculated as SDFaNDFom-cp, SDFIDF, SDFivDMi2. The intestinal mucin content was used to correct the TDF and soluble fibre digestibility. Ileal and faecal concentration of mucin increased from the LSF to the HSF diet group (P < 0.01). Once corrected for intestinal mucin, The CTTAD and CIAD of TDF and soluble fibre increased whereas caecal digestibility decreased (P < 0.01). The CIAD of TDF increased from the LSF to the HSF diet group (0.12 vs. 0.281. P < 0.01), with no difference in the caecal digestibility (0.264), resulting in a higher CTTAD from the LSF to the HSF diet group (P < 0.01). The CIAD of insoluble fibre increased from the LSF to the HSF diet group (0.113 vs. 0.21. P < 0.01), with no difference in the caecal digestibility (0.139) and no effect of fibre method, resulting in a higher CTTAD for rabbits fed the HSF diet compared with the MSF and LSF diets groups (P < 0.01). The CTTAD of aNDFom-cp was higher compared with IDF or ivDMi2 (P < 0.01). The CIAD of soluble fibre was higher for the HSF than for the LSF diet group (0.436 vs. 0.145. P < 0.01) and fibre method did not affect it. Caecal soluble fibre digestibility decreased from the LSF to the HSF diet group (0.721 vs. 0.492. P < 0.05). The lowest caecal and faecal soluble fibre digestibility was measured using SDFaNDFom-cp (P < 0.01). There was a high correlation among the digestibilities of soluble fibre measured as SDFaNDFom-cp, SDFIDF, and SDFivDMi2. Therefore, these methodologies provide similar information. However, the method that seems to be globally better related to the physiological traits (ileal flow of mucins, and relative weight of the caecum and caecal pH from previous work) was the SDFaNDFom-cp. In conclusion, a correction for intestinal mucin is necessary for ileal TDF and soluble fibre digestibility whereas the selection of the fibre method has a minor relevance. The inclusion of sugar beet and apple pulp increased the amount of TDF fermented in the small intestine. The third study examined the effect of fibre fractions of sugar beet pulp (SBP) and the method for quantifying soluble and insoluble fibre on soluble and insoluble fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 315 g/kg DM) and protein (167 g/kg DM). Control diet contained the lowest level of soluble fibre (30.3 g/kg DM, including sunflower hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with SBP pectins (82.9 g soluble fibre/kg DM). Two more diets were obtained by replacing part of the fibrous sources of the control diet with either insoluble SBP fibre or SBP (42.2 and 82.3 g soluble fibre/kg DM, respectively). Fifty six (14/diet) rabbits weighing 2.40 0.213 kg were used to determine faecal and ileal digestibility of total dietary fibre (TDF), insoluble dietary fibre (IDF), neutral detergent fibre corrected for ash and CP (aNDFom-cp) and soluble fibre estimated as SDFaNDFom-cp and SDFIDF. Faecal and ileal mucin content was used to correct TDF and soluble fibre digestibility. It was also recorded weight of digestive segments and digesta pH. Rabbits fed insoluble SBP showed the lowest feed intake with respect to the other 3 diets (124 vs. 139 g/d, respectively. P < 0.05). Ileal mucin flow was higher (P < 0.05) in animals fed pectin and SBP diets (9.0 g/d, as average) than those fed control diet (4.79 g/d), showing InsSBP group an intermediate value. No differences on mucin content were detected at faecal level. There was no diet effect on the CIAD of TDF (corrected for mucin) and insoluble fibre. Fibre methodology influenced the CIAD of insoluble fibre (0.123 for IDF vs. 0.108 for aNDFom-cp. P < 0.01). Anyway, the amount of insoluble fibre fermented before the caecum did not differ between both methods (4.9 g/d, on average). Rabbits fed insoluble SBP and SBP diets showed the highest CTTAD of insoluble fibre (0.266 on average vs. 0.106 for control group), whereas those fed pectin diet had an intermediate value (0.106. P < 0.001). The CTTAD of insoluble fibre measured with IDF was higher than that measured with aNDFom-cp (by 20%. P < 0.001). It led that the amount of insoluble fibre fermented along the digestive tract were different (9.5 or 7.5 g/d when calculated as IDF or aNDFom-cp, respectively; P < 0.001). When the CIAD of soluble fibre was corrected for mucin they became positive (P < 0.001) except for control group measured as SDFIDF. Once corrected for mucin content, rabbits fed soluble fibre from SBP (pectin and SBP groups) showed higher CIAD of soluble fibre than control group (0.483 vs. -0.019. respectively), whereas the value for insoluble SBP group was intermediate 0.274. The CTTAD of soluble fibre (mucin corrected) was similar among diets 0.93. Rabbits fed with SBP and insoluble SBP diets showed higher total digestive tract and stomach relative weight than those fed pectin and control diets (by 11 and 56 %. respectively, P < 0.05). The caecal relative weight did not differ in rabbits fed pectin, insoluble SBP, and SBP diets (62 g/kg BW, as average) and they were on average 16% higher (P < 0.001) than in control group. Caecal content of rabbits fed SBP diet was more acid than those fed control diet (5.64 vs. 6.03. P < 0.001), whereas those from pectin and insoluble SBP diets showed intermediate values. In conclusion, the positive effect of SBP fibre on ileal mucin flow was due to both its soluble and insoluble fibre fraction. Half of the soluble SBP fibre was degraded before the caecum independently it came from pectin or SBP. The caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The last study examined the effect of soluble and insoluble fibre of apple pulp on fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 324 g/kg DM) and protein (18.6 g/kg DM). Control diet contained the lowest level of soluble fibre (46 g soluble fibre/kg DM, including oat hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with apple pectins (105 g soluble fibre/kg DM). Two more diets were obtained by substituting part of the fibrous sources of the control diet by either apple pulp or depectinized apple pulp (93 and 71 g soluble fibre/kg, respectively). The CTTAD was determined in 23 rabbits/diet weighing 1.68 0.23 kg BW, and 23 rabbits/diet were slaughtered at 60 d of age to collect ileal digesta to determine CIAD and record other digestive traits. Soluble fibre from apple stimulated ileal flow of mucin (P = 0.002), but depectinized apple pulp did not. The correction for mucin increased the digestibility of crude protein, total dietary fibre, and soluble fibre at faecal, but especially at ileal level, depending in this case on the diet. Around half of the soluble fibre in diets containing any fibre fraction from apple was degraded at ileal level, with no differences among these diets (0.46 vs. 0.066 for control group, P=0.046). Faecal soluble fibre digestibility was 0.86 on average for all groups). Inclusion of the apple insoluble fibre improved NDF digestibility at faecal (0.222 vs. 0.069. P < 0.05) but not at ileal level. Caecal content of rabbits fed apple pulp diet was more acid than those fed control diet (5.55 vs. 5.95. P < 0.001), whereas those from pectin and depectinised apple pulp diets showed intermediate values. In conclusion, the positive effect of apple fibre on ileal mucin flow was mainly due to its soluble fibre fraction. Half of the soluble apple fibre was degraded before the caecum independently it came from pectin or apple pulp. The caecal pH correlated better with the total and ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The results obtained in the studies 2, 3 and 4 were considered together. These results showed that the mucin correction is necessary when the TDF and soluble fibre digestibility is determined, and it correction is more important at ileal level and in diets with low level of soluble fibre. On another hand, incrementing the soluble fibre using sugar beet and apple pulp increased the amount of TDF disappear before the caecum. Moreover, the caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. This suggests that an ileal fibre solubilisation may occur rather than ileal fermentation. Therefore the implications of this work were that: the estimation of soluble fibre as SDFaNDFom-cp is an adequate method considering its correlation with the physiological effects; and the TDF and soluble fibre digestibility must be corrected with intestinal mucins, especially when the ileal digestibility is determined.
Resumo:
En la actualidad, la gestión de embalses para el control de avenidas se realiza, comúnmente, utilizando modelos de simulación. Esto se debe, principalmente, a su facilidad de uso en tiempo real por parte del operador de la presa. Se han desarrollado modelos de optimización de la gestión del embalse que, aunque mejoran los resultados de los modelos de simulación, su aplicación en tiempo real se hace muy difícil o simplemente inviable, pues está limitada al conocimiento de la avenida futura que entra al embalse antes de tomar la decisión de vertido. Por esta razón, se ha planteado el objetivo de desarrollar un modelo de gestión de embalses en avenidas que incorpore las ventajas de un modelo de optimización y que sea de fácil uso en tiempo real por parte del gestor de la presa. Para ello, se construyó un modelo de red Bayesiana que representa los procesos de la cuenca vertiente y del embalse y, que aprende de casos generados sintéticamente mediante un modelo hidrológico agregado y un modelo de optimización de la gestión del embalse. En una primera etapa, se generó un gran número de episodios sintéticos de avenida utilizando el método de Monte Carlo, para obtener las lluvias, y un modelo agregado compuesto de transformación lluvia- escorrentía, para obtener los hidrogramas de avenida. Posteriormente, se utilizaron las series obtenidas como señales de entrada al modelo de gestión de embalses PLEM, que optimiza una función objetivo de costes mediante programación lineal entera mixta, generando igual número de eventos óptimos de caudal vertido y de evolución de niveles en el embalse. Los episodios simulados fueron usados para entrenar y evaluar dos modelos de red Bayesiana, uno que pronostica el caudal de entrada al embalse, y otro que predice el caudal vertido, ambos en un horizonte de tiempo que va desde una a cinco horas, en intervalos de una hora. En el caso de la red Bayesiana hidrológica, el caudal de entrada que se elige es el promedio de la distribución de probabilidad de pronóstico. En el caso de la red Bayesiana hidráulica, debido al comportamiento marcadamente no lineal de este proceso y a que la red Bayesiana devuelve un rango de posibles valores de caudal vertido, se ha desarrollado una metodología para seleccionar un único valor, que facilite el trabajo del operador de la presa. Esta metodología consiste en probar diversas estrategias propuestas, que incluyen zonificaciones y alternativas de selección de un único valor de caudal vertido en cada zonificación, a un conjunto suficiente de episodios sintéticos. Los resultados de cada estrategia se compararon con el método MEV, seleccionándose las estrategias que mejoran los resultados del MEV, en cuanto al caudal máximo vertido y el nivel máximo alcanzado por el embalse, cualquiera de las cuales puede usarse por el operador de la presa en tiempo real para el embalse de estudio (Talave). La metodología propuesta podría aplicarse a cualquier embalse aislado y, de esta manera, obtener, para ese embalse particular, diversas estrategias que mejoran los resultados del MEV. Finalmente, a modo de ejemplo, se ha aplicado la metodología a una avenida sintética, obteniendo el caudal vertido y el nivel del embalse en cada intervalo de tiempo, y se ha aplicado el modelo MIGEL para obtener en cada instante la configuración de apertura de los órganos de desagüe que evacuarán el caudal. Currently, the dam operator for the management of dams uses simulation models during flood events, mainly due to its ease of use in real time. Some models have been developed to optimize the management of the reservoir to improve the results of simulation models. However, real-time application becomes very difficult or simply unworkable, because the decision to discharge depends on the unknown future avenue entering the reservoir. For this reason, the main goal is to develop a model of reservoir management at avenues that incorporates the advantages of an optimization model. At the same time, it should be easy to use in real-time by the dam manager. For this purpose, a Bayesian network model has been developed to represent the processes of the watershed and reservoir. This model learns from cases generated synthetically by a hydrological model and an optimization model for managing the reservoir. In a first stage, a large number of synthetic flood events was generated using the Monte Carlo method, for rain, and rain-added processing model composed of runoff for the flood hydrographs. Subsequently, the series obtained were used as input signals to the reservoir management model PLEM that optimizes a target cost function using mixed integer linear programming. As a result, many optimal discharge rate events and water levels in the reservoir levels were generated. The simulated events were used to train and test two models of Bayesian network. The first one predicts the flow into the reservoir, and the second predicts the discharge flow. They work in a time horizon ranging from one to five hours, in intervals of an hour. In the case of hydrological Bayesian network, the chosen inflow is the average of the probability distribution forecast. In the case of hydraulic Bayesian network the highly non-linear behavior of this process results on a range of possible values of discharge flow. A methodology to select a single value has been developed to facilitate the dam operator work. This methodology tests various strategies proposed. They include zoning and alternative selection of a single value in each discharge rate zoning from a sufficient set of synthetic episodes. The results of each strategy are compared with the MEV method. The strategies that improve the outcomes of MEV are selected and can be used by the dam operator in real time applied to the reservoir study case (Talave). The methodology could be applied to any single reservoir and, thus, obtain, for the particular reservoir, various strategies that improve results from MEV. Finally, the methodology has been applied to a synthetic flood, obtaining the discharge flow and the reservoir level in each time interval. The open configuration floodgates to evacuate the flow at each interval have been obtained applying the MIGEL model.
Resumo:
La Vega de Aranjuez ha sido desde hace siglos conocida por la notoriedad de sus jardines y huertas históricas y también, en épocas más recientes, por ser la despensa de Madrid. A mediados del siglo XX, sin embargo, con las transformaciones que el sector agrario ha experimentado no sólo a nivel local, sino a escala global, empezó un proceso de declive que se ha acentuado en los últimos años. Paralelamente, en el año 2001, la Unesco declara el Paisaje Cultural de Aranjuez, como Patrimonio de la Humanidad con un valor universal excepcional. Parte de lo que sustenta este reconocimiento a nivel internacional radica en las peculiaridades del paisaje que conforma la actividad agraria. El cambio de orientación, eminentemente hortofrutícola hacia cultivos extensivos y superficies en barbecho, y la pérdida de importancia del sector, no han pasado desapercibidos para la administración local y han sido varios los intentos de recuperación y dinamización del sector en los últimos años. La investigación de la que es objeto esta Tesis Doctoral surgió por iniciativa del Ayuntamiento de Aranjuez, que en al año 2010 deseó conocer la situación del sector hortícola en el municipio, para lo cual, encargó un estudio a la UPM-ETSIA. Para conocer la realidad desde una perspectiva integral, se planteó abordar el análisis desde la perspectiva de Cadena de Valor. Las implicaciones de este concepto, su evolución y su papel como instrumento de análisis de la cadena alimentaria, han sido revisadas y presentadas en el epígrafe del Marco Conceptual. Por cadena de valor se entiende el conjunto de procesos desde el consumidor, a través de los proveedores que proporcionan productos, servicios e información que añaden valor hacia los clientes (Lambert & Cooper, 2000; Chen, 2004). Para el análisis de la situación del sector hortícola en Aranjuez, se procedió en varios pasos, los cuales constituyeron la primera fase de la investigación y contemplaron lo siguiente: 1. La identificación de los problemas y de las demandas de los actores de la cadena, realizando cortes transversales en el mercado a distintos niveles para conocer los puntos de vista de los operadores de la cadena (Gunasekaran & Patel ,2004; Rojas, 2009; Schiefer, 2007). Para ello se diseñaron cuestionarios y se dirigieron a representantes de cinco eslabones de la cadena presentes en el caso de estudio: Agricultores (15), Mayoristas (11), Detallistas (55), Consumidores (85) y Restaurantes (36), tanto en Aranjuez como en Madrid (un total de 202). 2. Análisis D.A.F.O de cada uno de los eslabones y de la cadena completa, como herramienta para identificar y sintetizar la problemática y las potencialidades del sector. 3. Análisis global de la Cadena de Valor mediante el Método de Organización Sectorial, según Briz, de Felipe y Briz (2010), el cual permite estudiar aspectos de la estructura, la conducta y el funcionamiento de la cadena. 4. Jornada de análisis por parte de un Panel de Expertos en la sede de la Fundación Foro Agrario, en la cual se presentaron las conclusiones del análisis de la cadena de valor y se plantearon estrategias para la dinamización del sector. Con los resultados del análisis en esta primera fase de la investigación, se obtuvo una panorámica de la cadena de valor. Algunos de los aspectos más destacados son los siguientes: • El eslabón productivo en Aranjuez está muy atomizado y trabaja por lo general de forma independiente. Cultiva hasta veinte productos hortícolas diferentes, entre los cuales los frutales están casi en desaparición y hay poca presencia de producto ecológico. Le preocupan los precios poco estables y bajos y por lo general no trabaja con contratos. •El eslabón mayorista prácticamente carece de presencia en Aranjuez y está representado en su mayoría por operadores de Mercamadrid, los cuales demandan mayores volúmenes y mejor normalización de los productos hortícolas procedentes de Aranjuez. • El eslabón detallista consultado es diverso (con representación de comercios minoristas, supermercados e hipermercados) y también demanda mayores volúmenes de producción y mejoras en la normalización. Un 80% conoce los productos de Aranjuez, especialmente el espárrago y la fresa-fresón citados en un 74% y 63% de los casos respectivamente. • En el eslabón de consumidores, el 79% de los encuestados da importancia a la procedencia de los productos hortícolas y un 82% conoce los productos de la Huerta de Aranjuez, siendo los más consumidos el espárrago y el fresón. Un 42% de los encuestados compra producto ecológico por razones de salud, sabor y buscando la ausencia de químicos. • El eslabón de restaurantes es un gran consumidor de hortalizas, la gran mayoría de los productos incluidos en el análisis se oferta en más del 75% de los casos. Las más presentes son tomate y espárrago. La fresa y el fresón (en un 83% de los casos), y el espárrago (72%) seguido de la alcachofa (44%) son los productos de Aranjuez que más se conocen en el conjunto de los restaurantes entrevistados. El 75% de los restaurantes prefiere el producto fresco frente al procesado o congelado. La mayoría de los restaurantes locales (92%) estaría dispuesto a incluir en su carta una diferenciación para los productos de Aranjuez. Sin embargo, en el resto de restaurantes el porcentaje es mucho menor (21%). Entre las conclusiones del análisis se evidenció que un 52% de las ventas de los agricultores se realizaba sin intermediarios y un 69% de los consumidores se manifestaba interesado en adquirir productos de Aranjuez directamente del campo a su casa. Se identificó de esta manera que el acortamiento de la cadena se está utilizando como una forma de crear valor. Para profundizar en este aspecto, se planteó una segunda fase en la investigación. Además de estudiar diversos aspectos de los canales cortos de comercialización, se planteó estudiar el enfoque multifuncional de la horticultura, como estrategia para poner en valor la Huerta ribereña. Para dar una coherencia con la fase anterior, el planteamiento se realizó también desde la perspectiva de la cadena de valor, orientando la consulta hacia el eslabón consumidor. De esta manera, se realizó una consulta mediante cuestionario a 221 consumidores sobre diferentes aspectos relativos a los Canales Cortos de Comercialización (CCC) y la Horticultura Multifuncional (HM)1, lo cual permitió realizar un análisis cuantitativo de diferentes variables. Para completar la visión integral de la cadena corta, se seleccionaron 6 proyectos significativos que son ejemplos de diversas tipologías de canales cortos de comercialización en Aranjuez y Madrid, como representantes del denominado eslabón de “Promotores de CCC” y se consultó también a la Asociación de Productores de la Huerta de Aranjuez, constituida formalmente en el año 2014, como representante del eslabón Productor. Para la obtención de información, la cual tiene un carácter cualitativo en el caso de estos dos eslabones de la cadena, se realizaron cuestionarios y Estudios de Caso de cada proyecto. Los cuestionarios de esta segunda fase de consulta a los eslabones de la cadena corta contuvieron cuestiones relativas a los canales cortos de comercialización, tanto a nivel general (concepto de canal corto, puntos fuertes y ventajas que aportan, dificultades para su desarrollo, factores clave para su éxito) como para el caso concreto de la Huerta de Aranjuez (perfil del consumidor, factores implicados en la compra de verduras, utilización de diversas modalidades de canal corto, relación con las tecnologías de la información y comunicación (TICs) y la producción ecológica o la importancia del factor confianza). También aspectos relacionados con la Horticultura Multifuncional, como son, la valoración de diferentes actividades o proyectos de carácter agro-turístico, educativo, social o terapéutico, o la percepción del consumidor de las actividades de huerta como fuente de bienestar y como agente satisfactor de diversas necesidades humanas. Para completar la visión sobre estos dos temas, CCC y HM, se realizó una consulta mediante cuestionario a Expertos en el campo de los canales cortos de comercialización, procedentes del ámbito académico, y a Profesionales en activo trabajando en proyectos de horticultura social y terapéutica. La información aportada, aunque tiene carácter cualitativo, complementa el estudio ofreciendo la perspectiva académica en el caso de los canales cortos y amplía la información sobre la horticultura multifuncional, tratando cuestiones relativas al desempeño profesional o a la formación existente en España en el campo de la horticultura social y terapéutica. Los resultados de esta segunda fase de la investigación, entre otras cuestiones, evidenciaron que: • Los canales cortos de comercialización implican mucho más que la simple reducción de intermediarios y comprenden una gran diversidad de tipologías. • Los casos estudiados, están enfocados en su mayoría al producto ecológico y su funcionamiento está muy fundamentado en el uso de TICs y en el factor confianza. • En relación a la compra de verduras en el ámbito de los canales cortos, son aspectos muy valorados por el consumidor la calidad del producto, la rapidez y frescura con la que llega del campo a la mesa y que el Producto sea recogido en su punto óptimo de maduración. • Las actividades en el ámbito de la horticultura multifuncional son valoradas positivamente por los consumidores, siendo las más puntuadas las de huerto educativo, huerto terapéutico, seguidas de visitas guiadas y degustaciones de productos de huerta en restaurantes. • Por lo general existe una valoración muy alta de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas, especialmente las de una alimentación saludable y de conexión con la naturaleza. Para terminar esta síntesis de la investigación realizada, se presentan las principales conclusiones a nivel global de la Tesis, que son las siguientes: 1. La metodología de cadena de valor ha resultado adecuada para conocer la complejidad y el funcionamiento del sector hortícola arancetano desde una perspectiva integral. 2. La Huerta de Aranjuez cuenta con importantes fortalezas, sustentadas en la calidad de sus suelos y en la fama que mantienen sus productos, pero también debilidades. Esto supone poco volumen de producción, que dificulta la relación con mayoristas y grandes detallistas. 3. El acortamiento de la cadena, mediante canales cortos de comercialización se ha identificado como una forma de creación de valor en la cadena. Existen oportunidades de abastecimiento a consumidores de Madrid mediante canales cortos, sin embargo, las modalidades que requieren mayor organización o requisitos de producción ecológica todavía no están desarrolladas. 4. La producción ecológica podría ser una estrategia para crear valor pero todavía es un método de cultivo muy minoritario en la cadena productiva arancetana. 5. Las peculiaridades de la Huerta de Aranjuez propician la puesta en práctica del enfoque multifuncional de la horticultura como vía de desarrollo económico. Los resultados apuntan a una posible demanda de servicios que contemplen actividades de horticultura de carácter educativo, terapéutico y agro-turístico, conducidas por profesionales. Existe una percepción positiva sobre el potencial de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas. 6. La puesta en marcha de proyectos empresariales en el ámbito de la horticultura social es una apuesta interesante para crear valor en la huerta que ha sido valorada positivamente por los eslabones de la cadena corta consultados. 7. El campo de la Horticultura Multifuncional que contempla aspectos educativos, sociales y terapéuticos conforma una disciplina con posibilidades de desarrollo que en la investigación se perciben como limitadas por la falta de profesionales y su acceso a una formación adecuada en España. El estudio de los Canales Cortos de Comercialización y de la Horticultura Multifuncional como vías de puesta en valor en el caso de la Huerta de Aranjuez ha tenido un carácter exploratorio y en gran parte cualitativo en esta Tesis Doctoral. Ambos conceptos han desvelado cierta complejidad y requieren de un mayor conocimiento en diversos aspectos para su puesta en práctica con éxito. Se abre, por tanto, un campo para futuras investigaciones que profundicen en estos ámbitos. ABSTRACT La Vega de Aranjuez has been known for centuries for the reputation of its orchards and historic gardens and, more recently, as the pantry of Madrid. However, in the mid-twentieth century, with the transformations in agriculture, not only locally, but globally, began a process of decline that has been accentuated in recent years. Meanwhile, in 2001, Unesco declared Aranjuez Cultural Landscape, as a World Heritage Site with outstanding universal value. Part of what underpins this international recognition lies in the peculiarities of the landscape created by farming. The shift, from an eminently horticultural vocation to extensive field crops and fallow surfaces, and the loss of importance of the sector, have not gone unnoticed for local authorities and have been several attempts at recovery and revitalization of the sector in recent years. The beginning of this research came at the initiative of the municipality of Aranjuez, which in 2010 wanted to know the situation of the horticultural sector, for which he commissioned a study by the UPM-ETSIA. To know reality from an integral perspective, it was proposed to approach the analysis from the perspective of value chain. The implications of this concept, its evolution and its role as an instrument of analysis of the food chain, have been reviewed and presented in Chapter 3.2. The value chain concept refers to all the processes from the consumer, through suppliers who provide products, services and information that add value to customers (Lambert & Cooper, 2000; Chen, 2004). For the analysis of the situation of the horticultural sector in Aranjuez, which constituted the first phase of research, it proceeded in several steps: 1. Identifying the problems and demands of the actors in the chain, making transverse cuts in the market at different levels to meet the views of the chain operators (Gunasekaran & Patel , 2004; Rojas, 2009; Schiefer, 2007). Questionnaires were designed for it and went to representatives of the five links in the chain: Farmers (15), Wholesalers (11), Retailers (55), Consumers (85) and Restaurants (36), both in Aranjuez and Madrid (a total of 202). 2. SWOT analysis of each chain actor and of the whole supply chain, as a tool to identify and synthesize the problems and potential of the sector. 3. Analysis of the whole supply chain by Industrial Organization Method according to Briz et al. (2010), which allows to study aspects of the structure, conduct and performance of the chain. 4. Analysis by a Panel of Experts at Foro Agrario Foundation headquarters, where the conclusions of the analysis were presented and strategies for the revitalization of the sector were raised. The results of the analysis in this first phase of the research, presented an overview of the value chain. Some of the highlights are: - The productive sector in Aranjuez is very fragmented and usually works independently. With a wide variety of horticultural products (up to 20), fruit crops almost disappearing and little presence of organic product. Is concerned about the unstable and low prices and usually does not work with contracts. - The wholesale sector with virtually no presence in Aranjuez is represented mostly by Mercamadrid operators, who demand higher volumes and better standardization of horticultural products from Aranjuez. - The retailer sector is diversified (with representation from retailers, supermarkets and hypermarkets) and also demand higher production volumes and improved standardization. 80% know the products of Aranjuez, especially asparagus and strawberry-strawberry cited by 74% and 63% of cases respectively. - Among the consumers, 79% give importance to the origin of horticultural products and 82% know the products from Aranjuez, the most consumed asparagus and strawberries. 42% buy organic products for health, taste and absence of chemicals. - Restaurants are big consumers of vegetables, most of the products included in the analysis is offered in over 75% of cases. The most: tomato and asparagus. Strawberry (83% of cases), and asparagus (72%) followed by the artichoke (44%) are the products of Aranjuez more known in all the surveyed restaurants. 75% of the restaurants prefer fresh product against processed or frozen. Most local restaurants (92%) would be willing to include in their menu a differentiation for products of Aranjuez. However, for those restaurants from Madrid the percentage is much lower (21%). Among the conclusions of the analysis it showed that 52% of sales were realized from farmers without intermediaries and 69% of consumers expressed interest in acquiring products directly from field to table. It has been identified that the shortening of the chain is being used as a way to create value. To deepen this aspect, a second phase investigation arose. Besides studying various aspects of the short supply chains, it was also proposed to study the functional approach of horticulture as a strategy to add value. To provide consistency with the previous phase, the focus was also conducted from the perspective of the value chain, directing the query to consumers. Thus, again it was used the questionnaire as a methodological tool, and 221 consumers were asked about different aspects of the Short Suppy Chains (SSC) and Multifunctional Horticulture (MH)2, which allowed a quantitative analysis of several variables. To complete the comprehensive view of the short chain, 6 significant projects were selected as examples of different types of short supply chains in Aranjuez and Madrid, representing "SSC Promoters" and also the “Asociación de Productores de la Huerta de Aranjuez”, formally constituted in 2014, was asked representing the productive sector. The Study Case and again the questionnaire were elected as methodological tools in a qualitative analysis. The questionnaires of this second phase of research contained short supply chain issues, as a general topic (short supply chain concept, strengths and advantages they bring difficulties for its development, key factors success) and also refered to the case of Aranjuez (consumer profile, factors involved in the purchase of vegetables, use of several types of short supply chains, relation with information and communication technologies (ICTs) and organic production or the importance of trust in short supply chains). It also contemplated aspects of multifunctional horticulture, such as the valuation of different activities (agro-tourism, educational, social or therapeutic horticulture) and consumer perception about horticultural activities as a source of welfare and satisfactor of human needs. To complete the vision of these two issues, SSC and MH, experts in the field of short supply chains and professionals working in the field of social and therapeutic horticulture were asked. The qualitative information provided, complements the study offering a new perspective in the value chain analysis, such as those relating to job performance, the difficulties encountered or training existing in our country in the field of social and therapeutic horticulture. The results of this second phase of research showed that: Short supply chains involve much more than simply reducing intermediaries and cover a wide range of types. The cases studied are mostly focused on ecological product and its operation is heavily based on the use of ICTs and the trust factor. In connection with the purchase of vegetables in the field of short supply chains, product quality, speed and freshness with which comes from the field to the table and products picked at its peak maturation, are aspects highly valued by the consumer. Activities in the field of multifunctional horticulture are positively valued by consumers, the most scored: the educational garden, therapeutic garden, followed by guided tours and tastings of vegetables from Aranjuez in restaurants. Horticultural activities were highly valuated as a source of welfare and satisfaction of human needs, especially those of healthy eating and connection with nature. To complete this summary, the main conclusions of the research are presented as follows: 1. The value chain approach has been adequate to meet the complexity and operation of the horticultural sector in Aranjuez from a holistic perspective. 2. La Huerta de Aranjuez has important strengths, underpinned by the quality of its soils and fame that keep their products, but also weaknesses. This implies low volume of production, which makes difficult the link with wholesalers and large retailers. 3. The shortening of the chain by short supply chains has been identified as a way of creating value in the chain. Opportunities exist to supply consumers from Madrid by short supply chains, however, methods that require greater organization or requirements of organic production are not yet developed. 4. Organic production could be a strategy to create value but is not generally being implemented in the production chain. 5. The peculiarity of the Huerta de Aranjuez favours the implementation of the multifunctional approach as a means of economic development. The results point to a possible demand for multifunctional horticulture that include educational, therapeutic and agro-tourism activities. There is a positive perception of the potential of horticultural activities as a source of welfare and satisfaction of basic human needs. 6. The implementation of business projects in the field of social horticulture are an interesting way to create value that has been highly valued in the short supply chain. 7. The field of Multifunctional Horticulture which includes educational, social and therapeutic aspects, forms a discipline with possibilities of development, which in research are seen as limited by the lack of professionals and access to adequate training in our country. The study of Short Supply Chains and Multifunctional Horticulture as strategies to create value in the case of the Huerta de Aranjuez has an exploratory character and largely qualitative in this research. Both concepts have revealed some complexity and require greater knowledge in various aspects for successful implementation. It opens therefore a field for future research to deepen in these areas.
Resumo:
El estudio de la influencia de perturbaciones de distinta naturaleza en configuraciones de puentes líquidos apoyados en dos discos coaxiales en rotación encuentra una importante motivación en el uso de dicha configuración en la fabricación de cristales semiconductores ultra-puros por la denominada técnica de zona flotante, en la que la rotación de los discos se utiliza para alcanzar temperaturas uniformes. El presente estudio muestra los resultados obtenidos mediante la aplicación de un método numérico en el análisis de la estabilidad de puentes líquidos en isorrotación sometidos al efecto de una fuerza axial uniforme (gravedad axial) y una excentricidad entre el eje de giro y el eje de los discos. Se analiza el efecto de la aplicación de estos factores tanto de forma conjunta como por separado. Aunque existen numerosos estudios previos sobre puentes líquidos sometidos a diversos efectos, el análisis del efecto combinado de la rotación con excentricidad y gravedad axial no ha sido realizado con anterioridad. Este estudio permite además entender los resultados del experimento a bordo de la misión TEXUS-23, en el que un puente líquido sujeto entre dos discos circulares y coaxiales es sometido al efecto de una rotación creciente en torno a un eje desplazado respecto al eje de los discos. Aunque en el experimento no se impone una fuerza axial controlada, la desestabilización y rotura del puente se produce de forma notablemente asimétrica, lo que no puede ser explicado con los estudios precedentes y sugiere una posible presencia de una aceleración axial residual. Se ha desarrollado por tanto un método de análisis de imágenes que permite comparar las formas obtenidas en el experimento con las calculadas numéricamente. En este estudio se muestran los detalles del procesado realizado en las imágenes de la misión TEXUS-23, y los resultados de su comparación con el análisis numérico, que permiten determinar el valor de la gravedad axial que mejor reproduce los resultados del experimento. Estos resultados ponen de manifiesto la importancia del conocimiento y la modelización de efectos cuya presencia (intencionada o no) afectan de forma visible a la estabilidad y la morfología de los puentes líquidos. ABSTRACT The study of the influence of various disturbances in configurations consisting of a liquid bridge supported by two co-axial disks in rotation has an important motivation in the use of this configuration in the fabrication of ultrapure semiconductor crystals via the so-called floating zone technique, in which the rotation of the disks is used to achieve a uniform temperature field. The present study shows the results obtained through the application of a numerical method in the analysis of the stability of liquid bridges in isorotation under the effect of a uniform axial force field (axial gravity) and an offset between the rotation axis and the axis of the supporting disks (eccentricity). The analysis studies the effect of both the combined and separate application of these factors. Although there are numerous studies on liquid bridges subject to various effects, the analysis of the combined effect of rotation with eccentricity and axial gravity has not been done before. Furthermore, this study allows us to understand the results from the experiment aboard the TEXUS-23 mission, in which a liquid bridge supported between two circular-shaped, co-axial disks is subject to the effect of an increasing rotation around an axis with an offset with respect to the axis of the disks. Although the experiment conditions do not include a controlled axial force field, the instability and breakage of the bridge occurs with a marked asymmetry, which cannot be explained by previous studies and suggests the possible presence of a residual axial gravity. Therefore, an image analysis method has been developed which allows to compare the shapes obtained in the experiment with those calculated with the numerical method. This study shows the details of the processing performed on the images from the TEXUS-23 mission and the results from their comparison with the numerical analysis, which allow to determine the axial gravity value which best recovers the experimental results. These results highlight the importance of the understanding and modelling of effects which, when present (intentionally or not), noticeably affect the stability and shape of the liquid bridges.
Resumo:
Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.
Resumo:
I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.
Resumo:
El desarrollo de nuevas estructuras aeroespaciales optimizadas, utilizan materiales compuestos, para los componentes críticos y subsistemas, principalmente polímeros reforzados con fibra de carbono (CFRP). Un conocimiento profundo del estado de daño por fatiga de estructuras de CFRP avanzado, es esencial para predecir la vida residual y optimizar los intervalos de inspección estructural, reparaciones y/o sustitución de componentes. Las técnicas actuales se basan principalmente en la medición de cargas estructurales a lo largo de la vida útil de la estructura mediante galgas extensométricas eléctricas. Con esos datos, se estima la vida a fatiga utilizando modelos de acumulación de daño. En la presente tesis, se evalúa la metodología convencional para la estimación de la vida a fatiga de un CFRP aeronáutico. Esta metodología está basada en la regla de acumulación de daño lineal de Palmgren-Miner, y es aplicada para determinar la vida a fatiga de estructuras sometidas a cargas de amplitud variable. Se ha realizado una campaña de ensayos con cargas de amplitud constante para caracterizar un CFRP aeronáutico a fatiga, obteniendo las curvas clásicas S-N, en diferentes relaciones de esfuerzo. Se determinaron los diagramas de vida constante, (CLD), también conocidos como diagramas de Goodman, utilizando redes neuronales artificiales debido a la ausencia de modelos coherentes para materiales compuestos. Se ha caracterizado la degradación de la rigidez debido al daño por fatiga. Se ha ensayado un segundo grupo de probetas con secuencias estandarizadas de cargas de amplitud variable, para obtener la vida a fatiga y la degradación de rigidez en condiciones realistas. Las cargas aplicadas son representativas de misiones de aviones de combate (Falstaff), y de aviones de transporte (Twist). La vida a fatiga de las probetas cicladas con cargas de amplitud variable, se comparó con el índice de daño teórico calculado en base a la regla de acumulación de daño lineal convencional. Los resultados obtenidos muestran predicciones no conservativas. Esta tesis también presenta el estudio y desarrollo, de una nueva técnica de no contacto para evaluar el estado de daño por fatiga de estructuras de CFRP por medio de cambios de los parámetros de rugosidad. La rugosidad superficial se puede medir fácilmente en campo con métodos sin contacto, mediante técnicas ópticas tales como speckle y perfilómetros ópticos. En el presente estudio, se han medido parámetros de rugosidad superficial, y el factor de irregularidad de la superficie, a lo largo de la vida de las probetas cicladas con cargas de amplitud constante y variable, Se ha obtenido una buena tendencia de ajuste al correlacionar la magnitud de la rugosidad y el factor de irregularidad de la superficie con la degradación de la rigidez de las probetas fatigadas. Estos resultados sugieren que los cambios en la rugosidad superficial medida en zonas estratégicas de componentes y estructuras hechas de CFRP, podrían ser indicativas del nivel de daño interno debido a cargas de fatiga. Los resultados también sugieren que el método es independiente del tipo de carga de fatiga que ha causado el daño. Esto último hace que esta técnica de medición sea aplicable como inspección para una amplia gama de estructuras de materiales compuestos, desde tanques presurizados con cargas de amplitud constante, estructuras aeronáuticas como alas y colas de aeronaves cicladas con cargas de amplitud variable, hasta aplicaciones industriales como automoción, entre otros. ABSTRACT New optimized aerospace structures use composite materials, mainly carbon fiber reinforced polymer composite (CFRP), for critical components and subsystems. A strong knowledge of the fatigue state of highly advanced (CFRP) structures is essential to predict the residual life and optimize intervals of structural inspection, repairs, and/or replacements. Current techniques are based mostly on measurement of structural loads throughout the service life by electric strain gauge sensors. These sensors are affected by extreme environmental conditions and by fatigue loads in such a way that the sensors and their systems require exhaustive maintenance throughout system life. In the present thesis, the conventional methodology based on linear damage accumulation rules, applied to determine the fatigue life of structures subjected to variable amplitude loads was evaluated for an aeronautical CFRP. A test program with constant amplitude loads has been performed to obtain the classical S-N curves at different stress ratios. Constant life diagrams, CLDs, where determined by means of Artificial Neural Networks due to the absence of consistent models for composites. The stiffness degradation due to fatigue damage has been characterized for coupons under cyclic tensile loads. A second group of coupons have been tested until failure with a standardized sequence of variable amplitude loads, representative of missions for combat aircraft (Falstaff), and representative of commercial flights (Twist), to obtain the fatigue life and the stiffness degradation under realistic conditions. The fatigue life of the coupons cycled with variable amplitude loads were compared to the theoretical damage index calculated based on the conventional linear damage accumulation rule. The obtained results show non-conservative predictions. This thesis also presents the evaluation of a new non-contact technique to evaluate the fatigue damage state of CFRP structures by means of measuring roughness parameters to evaluate changes in the surface topography. Surface roughness can be measured easily on field with non-contact methods by optical techniques such as speckle and optical perfilometers. In the present study, surface roughness parameters, and the surface irregularity factor, have been measured along the life of the coupons cycled with constant and variable amplitude loads of different magnitude. A good agreement has been obtained when correlating the magnitude of the roughness and the surface irregularity factor with the stiffness degradation. These results suggest that the changes on the surface roughness measured in strategic zones of components and structures made of CFRP, could be indicative of the level of internal damage due to fatigue loads. The results also suggest that the method is independent of the type of fatigue load that have caused the damage. It makes this measurement technique applicable for a wide range of inspections of composite materials structures, from pressurized tanks with constant amplitude loads, to variable amplitude loaded aeronautical structures like wings and empennages, up to automotive and other industrial applications.
Resumo:
En este trabajo, materiales de tipo alúmina/Y-TZP (ZrO2 tetragonal, estabilizada con 3 mol. % Y2O3), como sistema cerámico popular por sus mejoradas propiedades mecánicas en comparación con las cerámicas de alúmina puras, han sido estudiados en términos de propiedades mecánicas y tensiones residuales. El novedoso método de colado en cinta, consistente en el apilamiento de cintas de cerámica verde a temperatura ambiente y el uso de bajas presiones, se ha escogido para la presente investigación con el fin de poder aprovechar al máximo el futuro desarrollo de materiales laminados de alúmina-óxido de circonio. Se han determinado las propiedades de los materiales obtenidos por este nuevo método de procesamiento comparándolas con las de los materiales obtenidos por “slip casting”, con el fin de analizar si el método propuesto afecta a la microestructura y, por tanto, a las propiedades mecánicas y tensiones residuales propias de estos materiales. Para analizar la idoneidad del proceso de fabricación, utilizado para evitar la presencia de discontinuidades en las intercaras entre las láminas así como otros fenómenos que puedan interferir con las propiedades mecánicas, se estudiaron materiales cerámicos con la misma composición en cintas. Por otra parte también se analizó el efecto de la adición de óxido de circonio sobre la aparición de tensiónes residuales en cerámicas Al2O3/Y-TZP, teniendo en cuenta su notable influencia sobre las propiedades microestructurales y mecánicas de los materiales, así como el requisito de co-sinterización de capas con diferentes materiales compuestos en materiales laminados. La caracterización del material incluye la determinación de la densidad, el análisis de la microestructura, la obtención de las propiedades mecánicas (módulo de elasticidad, dureza, resistencia a la flexión y tenacidad de fractura) así como de las tensiones residuales. En combinación con otros métodos de medida tradicionales, la nanoindentación también se empleó como una técnica adicional para la medida del módulo de elasticidad y de la dureza. Por otro lado, diferentes técnicas de difracción con neutrones, tanto las basadas en longitud de onda constante (CW) como en tiempo de vuelo (TOF), han sido empleadas para la medición fiable de la deformación residual a través del grosor en muestras a granel. Las tensiones residuales fueron determinadas con elevada precisión, aplicando además métodos de análisis apropiados, como por ejemplo el refinamiento de Rietveld. Las diferentes fases en cerámicas sinterizadas, especialmente las de zirconia, se examinaron con detalle mediante el análisis de Rietveld, teniendo en cuenta el complicado polimorfismo del Óxido de Zirconio (ZrO2) así como las posibles transformaciones de fase durante el proceso de fabricación. Los efectos del contenido de Y-TZP en combinación con el nuevo método de procesamiento sobre la microestructura, el rendimiento mecánico y las tensiones residuales de los materiales estudiados (Al2O3/Y-TZP) se resumen en el presente trabajo. Finalmente, los mecanismos de endurecimiento, especialmente los relacionados con las tensiones residuales, son igualmente discutidos. In present work, Alumina/Y-TZP (tetragonal ZrO2 stabilized with 3 mol% Y2O3) materials, as an popular ceramic system with improved mechanical properties compared with the pure alumina ceramics, have been studied in terms of mechanical properties and residual stresses. The novel tape casting method, which involved the stacking of green ceramics tapes at room temperature and using low pressures, is selected for manufacturing and investigation, in order to take full advantage of the future development of alumina-zirconia laminated materials. Features of materials obtained by the new processing method are determined and compared with those of materials obtained by conventional slip casting in a plaster mold, in order to study whether the proposed method of processing affects microstructure and thereby the mechanical properties and residual stresses characteristics of materials. To analyse the adequacy of the manufacturing process used to avoid the presence of discontinuities at the interfaces between the sheets and other phenomena that interfere with the mechanical properties, ceramic materials with the same composition in tapes were investigated. Moreover, the effect of addition of zirconia on residual stress development of Al2O3/Y-TZP ceramics were taken into investigations, considering its significantly influence on the microstructure and mechanical properties of materials as well as the requirement of co-sintering of layers with different composites in laminated materials. The characterization includes density, microstructure, mechanical properties (elastic modulus, hardness, flexure strength and fracture toughness) and residual stresses. Except of the traditional measurement methods, nanoindentation technique was also used as an additional measurement of the elastic modulus and hardness. Neutron diffraction, both the constant-wavelength (CW) and time-of-flight (TOF) neutron diffraction techniques, has been used for reliable through-thickness residual strain measurement in bulk samples. Residual stresses were precisely determined combined with appropriate analysis methods, e.g. the Rietveld refinement. The phase compositions in sintered ceramics especially the ones of zirconia were accurately examined by Rietveld analysis, considering the complex polymorph of ZrO2 and the possible phase transformation during manufacturing process. Effects of Y-TZP content and the new processing method on the microstructure, mechanical performance and residual stresses were finally summarized in present studied Al2O3/Y-TZP materials. The toughening mechanisms, especially the residual stresses related toughening, were theoretically discussed.