885 resultados para medium-range order


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Wireless sensor networks (WSNs) consist of thousands of nodes that need to communicate with each other. However, it is possible that some nodes are isolated from other nodes due to limited communication range. This paper focuses on the influence of communication range on the probability that all nodes are connected under two conditions, respectively: (1) all nodes have the same communication range, and (2) communication range of each node is a random variable. In the former case, this work proves that, for 0menor queepsmenor quee^(-1) , if the probability of the network being connected is 0.36eps , by means of increasing communication range by constant C(eps) , the probability of network being connected is at least 1-eps. Explicit function C(eps) is given. It turns out that, once the network is connected, it also makes the WSNs resilient against nodes failure. In the latter case, this paper proposes that the network connection probability is modeled as Cox process. The change of network connection probability with respect to distribution parameters and resilience performance is presented. Finally, a method to decide the distribution parameters of node communication range in order to satisfy a given network connection probability is developed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta tesis doctoral se describe el trabajo de investigación enfocado al estudio y desarrollo de sensores de fibra óptica para la detección de presión, flujo y vibraciones en ductos ascendentes submarinos utilizados en la extracción y transporte de hidrocarburos, con el objetivo de aplicarlos en los campos de explotación de aguas profundas en el Golfo de México pertenecientes a la Industria Petrolera Mexicana. El trabajo se ha enfocado al estudio y desarrollo de sensores ópticos cuasi distribuidos y distribuidos. En especial se ha profundizado en el uso y aplicación de las redes de Bragg (FBG) y de reflectómetros ópticos en el dominio del tiempo sensible a la fase (φ-OTDR). Los sensores de fibra óptica son especialmente interesantes para estas aplicaciones por sus ventajosas características como su inmunidad a interferencias electromagnéticas, capacidad de multiplexado, fiabilidad para trabajar en ambientes hostiles, altas temperaturas, altas presiones, ambientes salino-corrosivos, etc. Además, la fibra óptica no solo es un medio sensor sino que puede usarse como medio de transmisión. Se ha realizado un estudio del estado del arte y las ventajas que presentan los sensores ópticos puntuales, cuasi-distribuidos y distribuidos con respecto a los sensores convencionales. Se han estudiado y descrito los interrogadores de redes de Bragg y se ha desarrollado un método de calibración útil para los interrogadores existentes en el mercado, consiguiendo incertidumbres en la medida de la longitud de onda menores de ± 88 nm e incertidumbres relativas (la mas interesante en el campo de los sensores) menores de ±3 pm. Centrándose en la aplicación de las redes de Bragg en la industria del petróleo, se ha realizado un estudio en detalle del comportamiento que presentan las FBGs en un amplio rango de temperaturas de -40 ºC a 500 oC. Como resultado de este estudio se han evaluado las diferencias en los coeficientes de temperatura en diversos tramos de mas mismas, así como para diferentes recubrimientos protectores. En especial se ha encontrado y evaluado las diferencias de los diferentes recubrimientos en el intervalo de temperaturas entre -40 ºC y 60 ºC. En el caso del intervalo de altas temperaturas, entre 100 ºC y 500 ºC, se ha medido y comprobado el cambio uniforme del coeficiente de temperatura en 1pm/ºC por cada 100 ºC de aumento de temperatura, en redes independientemente del fabricante de las mismas. Se ha aplicado las FBG a la medición de manera no intrusiva de la presión interna en una tubería y a la medición del caudal de un fluido en una tubería, por la medida de diferencia de presión entre dos puntos de la misma. Además se ha realizado un estudio de detección de vibraciones en tuberías con fluidos. Finalmente, se ha implementado un sistema de detección distribuida de vibraciones aplicable a la detección de intrusos en las proximidades de los ductos, mediante un φ-OTDR. En este sistema se ha estudiado el efecto negativo de la inestabilidad de modulación que limita la detección de vibraciones distribuidas, su sensibilidad y su alcance. ABSTRACT This thesis describes the research work focused for the study and development of on optical fiber sensors for detecting pressure, flow and vibration in subsea pipes used in the extraction and transportation of hydrocarbons, in order to apply them in deepwater fields in the Gulf of Mexico belonging to the Mexican oil industry. The work has focused on the study and development of optical sensors distributed and quasi distributed. Especially was done on the use and application of fiber Bragg grating (FBG) and optical reflectometers time domain phase sensitive (φ-OTDR). The optical fiber sensors especially are interesting for these applications for their advantageous characteristics such as immunity to electromagnetic interference, multiplexing capability, reliability to work in harsh environments, high temperatures, high pressures, corrosive saline environments, etc. Furthermore, the optical fiber is not only a sensor means it can be used as transmission medium. We have performed a study of the state of the art and the advantages offered by optical sensors point, quasi-distributed and distributed over conventional sensors. Have studied and described interrogators Bragg grating and has developed a calibration method for interrogators useful for the existing interrogators in the market, resulting uncertainty in the measurement of the wavelength of less than ± 0.17 nm and uncertainties (the more interesting in the field of sensors) less than ± 3 pm. Focusing on the application of the Bragg gratings in the oil industry, has been studied in detail the behavior of the FBGs in a wide range of temperatures from -40 °C to 500 oC. As a result of this study we have evaluated the difference in temperature coefficients over various sections of the same, as well as different protective coatings. In particular evaluated and found the differences coatings in the range of temperatures between -40 º C and 60 º C. For the high temperature range between 20 ° C and 500 ° C, has been measured and verified the uniform change of the temperature coefficient at 1pm / ° C for each 100 ° C increase in temperature, in networks regardless of manufacturer thereof. FBG is applied to the non-intrusive measurement of internal pressure in a pipeline and measuring flow of a fluid in a pipe, by measuring the pressure difference between two points thereof. Therefore, has also made a study of detecting vibrations in pipes with fluids. Finally, we have implemented a distributed sensing system vibration applied to intrusion detection in the vicinity of the pipelines, by φ-OTDR. In this system we have studied the negative effect of modulation instability limits the distributed vibration detection, sensitivity and scope.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Actualmente, la reducción de materias activas (UE) y la implantación de la nueva Directiva comunitaria 2009/128/ que establece el marco de actuación para conseguir un uso sostenible de los plaguicidas químicos y la preferencia de uso de métodos biológicos, físicos y otros no químicos, obliga a buscar métodos de control menos perjudiciales para el medio ambiente. El control biológico (CB) de enfermedades vegetales empleando agentes de control biológico (ACB) se percibe como una alternativa más segura y con menor impacto ambiental, bien solos o bien como parte de una estrategia de control integrado. El aislado 212 de Penicillium oxalicum (PO212) (ATCC 201888) fue aislado originalmente de la micoflora del suelo en España y ha demostrado ser un eficaz ACB frente a la marchitez vascular del tomate. Una vez identificado y caracterizado el ACB se inició el periodo de desarrollo del mismo poniendo a punto un método de producción en masa de sus conidias. Tras lo cual se inició el proceso de formulación del ACB deshidratando las conidias para su preservación durante un período de tiempo mayor mediante lecho fluido. Finalmente, se han desarrollado algunos formulados que contienen de forma individual diferentes aditivos que han alargado su viabilidad, estabilidad y facilitado su manejo y aplicación. Sin embargo, es necesario seguir trabajando en la mejora de su eficacia de biocontrol. El primer objetivo de esta Tesis se ha centrado en el estudio de la interacción ACB-patógeno-huésped que permita la actuación de P.oxalicum en diferentes patosistemas. Uno de los primeros puntos que se abordan dentro de este objetivo es el desarrollo de nuevas FORMULACIONES del ACB que incrementen su eficacia frente a la marchitez vascular del tomate. Las conidias formuladas de PO212 se obtuvieron por la adición conjunta de distintos aditivos (mojantes, adherentes o estabilizantes) en dos momentos diferentes del proceso de producción/secado: i) antes del proceso de producción (en la bolsa de fermentación) en el momento de la inoculación de las bolsas de fermentación con conidias de PO212 o ii) antes del secado en el momento de la resuspensión de las conidias tras su centrifugación. De las 22 nuevas formulaciones desarrolladas y evaluadas en plantas de tomate en ensayos en invernadero, seis de ellas (FOR22, FOR25, FOR32, FOR35, FOR36 y FOR37) mejoran significativamente (P=0,05) el control de la marchitez vascular del tomate con respecto al obtenido con las conidias secas de P.oxalicum sin aditivos (CSPO) o con el fungicida Bavistin. Los formulados que mejoran la eficacia de las conidias secas sin aditivos son aquellos que contienen como humectantes alginato sódico en fermentación, seguido de aquellos que contienen glicerol como estabilizante en fermentación, y metil celulosa y leche desnatada como adherentes antes del secado. Además, el control de la marchitez vascular del tomate por parte de los formulados de P. oxalicum está relacionado con la fecha de inicio de la enfermedad. Otra forma de continuar mejorando la eficacia de biocontrol es mejorar la materia activa mediante la SELECCIÓN DE NUEVAS CEPAS de P. oxalicum, las cuales podrían tener diferentes niveles de eficacia. De entre las 28 nuevas cepas de P. oxalicum ensayadas en cámara de cultivo, sólo el aislado PO15 muestra el mismo nivel de eficacia que PO212 (62-67% de control) frente a la marchitez vascular del tomate en casos de alta presión de enfermedad. Mientras que, en casos de baja presión de enfermedad todas las cepas de P. oxalicum y sus mezclas demuestran ser eficaces. Finalmente, se estudia ampliar el rango de actuación de este ACB a OTROS HUÉSPEDES Y OTROS PATÓGENOS Y DIFERENTES GRADOS DE VIRULENCIA. En ensayos de eficacia de P. oxalicum frente a aislados de diferente agresividad de Verticillium spp. y Fusarium oxysporum f. sp. lycopersici en plantas de tomate en cámaras de cultivo, se demuestra que la eficacia de PO212 está negativamente correlacionada con el nivel de enfermedad causada por F. oxysporum f. sp. lycopersici pero que no hay ningún efecto diferencial en la reducción de la incidencia ni de la gravedad según la virulencia de los aislados. Sin embargo, en los ensayos realizados con V. dahliae, PO212 causa una mayor reducción de la enfermedad en las plantas inoculadas con aislados de virulencia media. La eficacia de PO212 también era mayor frente a aislados de virulencia media alta de F. oxysporum f. sp. melonis y F. oxysporum f. sp. niveum, en plantas de melón y sandía, respectivamente. En ambos huéspedes se demuestra que la dosis óptima de aplicación del ACB es de 107 conidias de PO212 g-1 de suelo de semillero, aplicada 7 días antes del trasplante. Además, entre 2 y 4 nuevas aplicaciones de PO212 a la raíces de las plantas mediante un riego al terreno de asiento mejoran la eficacia de biocontrol. La eficacia de PO212 no se limita a hongos patógenos vasculares como los citados anteriormente, sino también a otros patógenos como: Phytophthora cactorum, Globodera pallida y G. rostochiensis. PO212 reduce significativamente los síntomas (50%) causados por P. cactorum en plantas de vivero de fresa, tras la aplicación del ACB por inmersión de las raíces antes de su trasplante al suelo de viveros comerciales. Por otra parte, la exposición de los quistes de Globodera pallida y G. rostochiensis (nematodos del quiste de la patata) a las conidias de P. oxalicum, en ensayos in vitro o en microcosmos de suelo, reduce significativamente la capacidad de eclosión de los huevos. Para G. pallida esta reducción es mayor cuando se emplean exudados de raíz de patata del cv. 'Monalisa', que exudados de raíz del cv. 'Desirée'. No hay una reducción significativa en la tasa de eclosión con exudados de raíz de tomate del cv. 'San Pedro'. Para G. rostochiensis la reducción en la tasa de eclosión de los huevos se obtiene con exudados de la raíz de patata del cv. 'Desirée'. El tratamiento con P. oxalicum reduce también significativamente el número de quistes de G. pallida en macetas. Con el fin de optimizar la aplicación práctica de P. oxalicum cepa 212 como tratamiento biológico del suelo, es esencial entender cómo el entorno físico influye en la capacidad de colonización, crecimiento y supervivencia del mismo, así como el posible riesgo que puede suponer su aplicación sobre el resto de los microorganismos del ecosistema. Por ello en este segundo objetivo de esta tesis se estudia la interacción del ACB con el medio ambiente en el cual se aplica. Dentro de este objetivo se evalúa la INFLUENCIA DE LA TEMPERATURA, DISPONIBILIDAD DE AGUA Y PROPIEDADES FÍSICO-QUÍMICAS DE LOS SUELOS (POROSIDAD, TEXTURA, DENSIDAD...) SOBRE LA SUPERVIVENCIA Y EL CRECIMIENTO DE PO212 en condiciones controladas elaborando modelos que permitan predecir el impacto de cada factor ambiental en la supervivencia y crecimiento de P. oxalicum y conocer su capacidad para crecer y sobrevivir en diferentes ambientes. En las muestras de suelo se cuantifica: i) la supervivencia de Penicillium spp. usando el recuento del número de unidades formadoras de colonias en un medio de cultivo semi-selectivo y ii) el crecimiento (biomasa) de PO212 mediante PCR en tiempo real. En los resultados obtenidos se demuestra que P. oxalicum crece y sobrevive mejor en condiciones de sequía independientemente de la temperatura y del tipo de suelo. Si comparamos tipos de suelo P. oxalicum crece y sobrevive en mayor medida en suelos areno-arcillosos con un bajo contenido en materia orgánica, un mayor pH y una menor disponibilidad de fósforo y nitrógeno. La supervivencia y el crecimiento de P. oxalicum se correlaciona de forma negativa con la disponibilidad de agua y de forma positiva con el contenido de materia orgánica. Sólo la supervivencia se correlaciona también positivamente con el pH. Por otro lado se realizan ensayos en suelos de huertos comerciales con diferentes propiedades físico-químicas y diferentes condiciones ambientales para ESTUDIAR EL ESTABLECIMIENTO, SUPERVIVENCIA Y DISPERSIÓN VERTICAL Y MOVILIDAD HORIZONTAL DE PO212. P. oxalicum 212 puede persistir y sobrevivir en esos suelos al menos un año después de su liberación pero a niveles similares a los de otras especies de Penicillium indígenas presentes en los mismos suelos naturales. Además, P. oxalicum 212 muestra una dispersión vertical y movilidad horizontal muy limitada en los diferentes tipos de suelo evaluados. La introducción de P. oxalicum en un ambiente natural no sólo implica su actuación sobre el microorganismo diana, el patógeno, si no también sobre otros microorganismos indígenas. Para EVALUAR EL EFECTO DE LA APLICACIÓN DE P. oxalicum SOBRE LAS POBLACIONES FÚNGICAS INDIGENAS PRESENTES EN EL SUELO de dos huertos comerciales, se analizan mediante electroforesis en gradiente desnaturalizante de poliacrilamida (DGGE) muestras de dichos suelos a dos profundidades (5 y 10 cm) y a cuatro fechas desde la aplicación de P. oxalicum 212 (0, 75, 180 y 365 días). El análisis de la DGGE muestra que las diferencias entre las poblaciones fúngicas se deben significativamente a la fecha de muestreo y son independientes del tratamiento aplicado y de la profundidad a la que se tomen las muestras. Luego, la aplicación del ACB no afecta a la población fúngica de los dos suelos analizados. El análisis de las secuencias de la DGGE confirma los resultados anteriores y permiten identificar la presencia del ACB en los suelos. La presencia de P. oxalicum en el suelo se encuentra especialmente relacionada con factores ambientales como la humedad. Por tanto, podemos concluir que Penicillium oxalicum cepa 212 puede considerarse un óptimo Agente de Control Biológico (ACB), puesto que es ecológicamente competitivo, eficaz para combatir un amplio espectro de enfermedades y no supone un riesgo para el resto de microorganismos fúngicos no diana presentes en el lugar de aplicación. ABSTRACT Currently, reduction of active (EU) and the implementation of the new EU Directive 2009/128 which establishing the framework for action to achieve the sustainable use of chemical pesticides and preference of use of biological, physical and other non-chemical methods, forces to look for control methods less harmful to the environment. Biological control (CB) of plant diseases using biological control agents (BCA) is perceived as a safer alternative and with less environmental impact, either alone or as part of an integrated control strategy. The isolate 212 of Penicillium oxalicum (PO212) (ATCC 201888) was originally isolated from the soil mycoflora in Spain. P. oxalicum is a promising biological control agent for Fusarium wilt and other tomato diseases. Once identified and characterized the BCA, was developed a mass production method of conidia by solid-state fermentation. After determined the process of obtaining a formulated product of the BCA by drying of product by fluid-bed drying, it enables the preservation of the inoculum over a long period of time. Finally, some formulations of dried P. oxalicum conidia have been developed which contain one different additive that have improved their viability, stability and facilitated its handling and application. However, further work is needed to improve biocontrol efficacy. The first objective of this thesis has focused on the study of the interaction BCA- pathogen-host, to allow P.oxalicum to work in different pathosystems. The first point to be addressed in this objective is the development of new FORMULATIONS of BCA which increase their effectiveness against vascular wilt of tomato. PO212 conidial formulations were obtained by the joint addition of various additives (wetting agents, adhesives or stabilizers) at two different points of the production-drying process: i) to substrate in the fermentation bags before the production process, and (ii) to conidial paste obtained after production but before drying. Of the 22 new formulations developed and evaluated in tomato plants in greenhouse tests, six of them (FOR22 , FOR25 , FOR32 , FOR35 , FOR36 and FOR3) improved significantly (P = 0.05) the biocontrol efficacy against tomato wilt with respect to that obtained with dried P.oxalicum conidia without additives (CSPO) or the fungicide Bavistin. The formulations that improve the efficiency of dried conidia without additives are those containing as humectants sodium alginate in the fermentation bags, followed by those containing glycerol as a stabilizer in the fermentation bags, and methylcellulose and skimmed milk as adherents before drying. Moreover, control of vascular wilt of tomatoes by PO212 conidial formulations is related to the date of disease onset. Another way to further improve the effectiveness of biocontrol is to improve the active substance by SELECTION OF NEW STRAINS of P. oxalicum, which may have different levels of effectiveness. Of the 28 new strains of P. oxalicum tested in a culture chamber, only PO15 isolate shows the same effectiveness that PO212 (62-67 % of control) against tomato vascular wilt in cases of high disease pressure. Whereas in cases of low disease pressure all strains of P. oxalicum and its mixtures effective. Finally, we study extend the range of action of this BCA TO OTHER GUESTS AND OTHER PATHOGENS AND DIFFERENT DEGREES OF VIRULENCE. In efficacy trials of P. oxalicum against isolates of different aggressiveness of Verticillium spp. and Fusarium oxysporum f. sp. lycopersici in tomato plants in growth chambers, shows that the efficiency of PO212 is negatively correlated with the level of disease caused by F. oxysporum f. sp. lycopersici. There is not differential effect in reducing the incidence or severity depending on the virulence of isolates. However, PO212 cause a greater reduction of disease in plants inoculated with virulent isolates media of V. dahlia. PO212 efficacy was also higher against isolates of high and average virulence of F. oxysporum f. sp. melonis and F. oxysporum f. sp. niveum in melon and watermelon plants, respectively. In both hosts the optimum dose of the BCA application is 107 conidia PO212 g-1 soil, applied on seedlings 7 days before transplantation into the field. Moreover, the reapplication of PO212 (2-4 times) to the roots by irrigation into the field improve efficiency of biocontrol. The efficacy of PO212 is not limited to vascular pathogens as those mentioned above, but also other pathogens such as Oomycetes (Phytophthora cactorum) and nematodes (Globodera pallida and G. rostochiensis). PO212 significantly reduces symptoms (50 %) caused by P. cactorum in strawberry nursery plants after application of BCA by dipping the roots before transplanting to soil in commercial nurseries. Moreover, the exposure of G. pallida and G. rostochiensis cysts to the conidia of P. oxalicum, in in vitro assays or in soil microcosms significantly reduces hatchability of eggs. The reduction in the rate of G. pallida juveniles hatching was greatest when root diffusates from the `Monalisa´ potato cultivar were used, followed by root diffusates from the `Désirée´ potato cultivar. However, no significant reduction in the rate of G. pallida juveniles hatching was found when root diffusates from the ‘San Pedro” tomato cultivar were used. For G. rostochiensis reduction in the juveniles hatching is obtained from the root diffusates 'Desirée' potato cultivar. Treatment with P. oxalicum also significantly reduces the number of cysts of G. pallida in pots. In order to optimize the practical application of P. oxalicum strain 212 as a biological soil treatment, it is essential to understand how the physical environment influences the BCA colonization, survival and growth, and the possible risk that can cause its application on other microorganisms in the ecosystem of performance. Therefore, the second objective of this thesis is the interaction of the BCA with the environment in which it is applied. Within this objective is evaluated the INFLUENCE OF TEMPERATURE, WATER AVAILABILITY AND PHYSICAL-CHEMICAL PROPERTIES OF SOILS (POROSITY, TEXTURE, DENSITY...) ON SURVIVAL AND GROWTH OF PO212 under controlled conditions to develop models for predicting the environmental impact of each factor on survival and growth of P. oxalicum and to know their ability to grow and survive in different environments. Two parameters are evaluated in the soil samples: i) the survival of Penicillium spp. by counting the number of colony forming units in semi-selective medium and ii) growth (biomass) of PO212 by real-time PCR. P. oxalicum grows and survives better in drought conditions regardless of temperature and soil type. P. oxalicum grows and survives more in sandy loam soils with low organic matter content, higher pH and lower availability of phosphorus and nitrogen. Survival and growth of P. oxalicum negatively correlates with the availability of water and positively with the organic content. Only survival also correlated positively with pH. Moreover, trials are carried out into commercial orchards soils with different physic-chemical properties and different environmental conditions TO STUDY THE ESTABLISHMENT, SURVIVAL, VERTICAL DISPERSION AND HORIZONTAL SPREAD OF PO212. P. oxalicum 212 can persist and survive at very low levels in soil one year after its release. The size of the PO212 population after its release into the tested natural soils is similar to that of indigenous Penicillium spp. Furthermore, the vertical dispersion and horizontal spread of PO212 is limited in different soil types. The introduction of P. oxalicum in a natural environment not only involves their action on the target organism, the pathogen, but also on other indigenous microorganisms. TO ASSESS THE EFFECT OF P. oxalicum APPLICATION ON SOIL INDIGENOUS FUNGAL COMMUNITIES in two commercial orchards, soil samples are analyzed by Denaturing Gradient Gel Electrophoresis polyacrylamide (DGGE). Samples are taken from soil at two depths (5 and 10 cm) and four dates from the application of P. oxalicum 212 (0, 75, 180 and 365 days). DGGE analysis shows that differences are observed between sampling dates and are independent of the treatment of P. oxalicum applied and the depth. BCA application does not affect the fungal population of the two soil analyzed. Sequence analysis of the DGGE bands confirms previous findings and to identify the presence of BCA on soils. The presence of P. oxalicum in soil is especially related to environmental factors such as humidity. Therefore, we conclude that the 212 of strain Penicillium oxalicum can be considered an optimum BCA, since it is environmentally competitive and effective against a broad spectrum of diseases and does not have any negative effect on soil non-target fungi communities.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tanto el tema de esta investigación, como sus objetivos, fundamentos, materiales seleccionados y parte experimental para alcanzarlos, han sido promovidos por la situación y el estado de las construcciones de hormigón armado que se comenzaron a realizar en España a partir del año 1975, con hormigones y morteros de cemento que contenían cenizas volantes hasta un 20 %, en principio, y hasta un 35 %, más tarde, de su dosificación de cemento Portland (CP), los cuales y en contra de lo esperado, han demandado y continúan demandando, muy a pesar de sus aparentes bondades de todo tipo que se les atribuían, una necesidad de mejora de sus prestaciones, especialmente, debido a un nivel inesperadamente bajo de la durabilidad de algunas obras construidas con los mismos. Todo era debido, en definitiva, a que las adiciones puzolánicas, naturales y artificiales, tales como las cenizas volantes, referidas antes, se vienen utilizando reglamentariamente para la fabricación de cementos y/o de sus productos derivados, hormigones, morteros y pastas, en la mayor parte de los países industrializados, desde hace ya más de tres décadas aproximadamente, en las mismas condiciones e idénticos usos constructivos que los hormigones y morteros de CP puro, viniendo además, dictada dicha utilización de estos materiales residuales, hoy sub-productos industriales, por cuestiones medioambientales y/o económicas, principalmente, motivo por el cual esta Tesis Doctoral ha pretendido responder también, adecuadamente y de manera esquemática (en forma de diagrama de flujo), a los criterios que deben de tenerse en cuenta a la hora de su selección y caracterización normalizada y reglamentada de estas adiciones minerales activas, sobre todo, antes de su dosificación y uso en forma del denominado cemento Portland con puzolana, o con ceniza volante, o con esquistos calcinados o con puzolanas calcinadas o con humo de sílice, cemento Portland mixto, cemento puzolánico o cemento compuesto, para que dichos problemas no se le produzcan al hormigón armado ni en masa. De aquí el enfoque tan particular y especial de esta investigación, al haberla circunscrito únicamente a las puzolanas naturales y artificiales, por considerarlas todas ellas, independientemente de por su origen, como materiales constituidos por pequeñas fracciones cristalinas distribuidas aleatoriamente en una matriz mayoritariamente vítrea y/o amorfa, la cual es la que le confiere su reactividad con el hidróxido de calcio en forma de cal apagada o de portlandita procedente de la hidratación del CP. A su vez, dichas fracciones vítreas y/o amorfas están constituidas, en su mayor parte, por sílice reactiva, SiO2r-, alúmina reactiva, Al2O3r-, y óxido de hierro reactivo, Fe2O3r-, recibiendo además, en conjunto, el nombre específico de "factores hidráulicos" de la puzolana, los cuales, por lo común, difieren cuantitativamente de sus contenidos totales, determinados por fusión alcalina mediante procedimientos normalizados. De los tres óxidos reactivos mencionados y desde el punto de vista técnico, los más importantes por su mayor presencia en casi todas las puzolanas naturales y artificiales y, también, transcendencia en la durabilidad química que les pueden llegar a conferir al hormigón armado y en masa, mortero o pasta de cemento que las contenga, son la SiO2r- y la Al2O3r-. El primero de los dos, la SiO2r-, reacciona nada más que con la portlandita (y el Ca(OH)2) para formar geles C-S-H, más tarde transformados en tobermoritas o en jennitas, semejantes a los que originan la alita y la belita del CP en su hidratación. Y desde el punto de vista normativo, la presencia de esta fracción silícica reactiva en las puzolanas viene regulada por la norma EN 197-1, de modo general, siendo además referida por la norma EN 450-1:2006, en el contexto de las cenizas volantes en su adición al hormigón, como "un polvo fino de partículas principalmente de forma esférica y cristalina, procedentes de la combustión de carbón pulverizado, que tiene propiedades puzolánicas y que está compuesto fundamentalmente de SiO2 y Al2O3". Además y de acuerdo con la primera de las dos normas, "El contenido de dióxido de silicio reactivo (definido y determinado según la norma EN 196-2 o su equivalente la UNE 80225) no debe ser inferior al 25 % en masa". Por su parte, cuantiosos estudios experimentales realizados por Talero solo y con otros investigadores, han demostrado que si la puzolana no es adecuada en calidad ni en cantidad, la durabilidad del cemento del que forme parte, y, por consiguiente, de los productos derivados que con él se fabriquen, hormigones, morteros, pastas y prefabricados, puede llegar a ser anormalmente baja, porque la alúmina reactiva, Al2O3r-, o alúmina tetra- o penta-coordinada que la constituye, se implica como tal, de una forma muy directa y con resultados totalmente contrapuestos incluso, en los ataques químicos agresivos naturales que se les producen, provenientes de terrenos y aguas selenitosas (sulfatos, que atacan en su caso al propio material hormigón, mortero y pasta que la contiene para formar ettringita de rápida formación, ett-rf, la cual puede llegar incluso a provocar un ataque rápido del yeso), del rocío marino y de las sales de deshielo (cloruros, que atacan, en cambio, a las armaduras de acero del hormigón provocándoles su corrosión electroquímica por "picadura", si bien, en este otro ataque químico, dicha Al2O3r- lo que origina es sal de Friedel de rápida formación, sF-rf, también, cuyo efecto es, en cambio, colmatador y protector, en definitiva, de dicha corrosión electroquímica), del agua de mar (acción agresiva mutua de cloruros y sulfatos), de la carbonatación, de la reactividad árido-álcali, además de intervenir en la liberación del calor de hidratación, así como también, en el comportamiento reológico de sus pastas, etc., acortándoles de este modo su durabilidad prevista y, en ocasiones, muy seriamente incluso. Pero lo más paradójico de todo es, que a pesar de su referido comportamiento totalmente contrapuesto, frente a sulfatos y cloruros, - aún no se dispone de un método de análisis químico para su determinación cuantitativa, que sea además relativamente sencillo en su operatividad, veraz, preciso, de respuesta rápida, desde el punto de vista técnico de la construcción (no más de 28 días), repetible, reproducible, que no implique peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, económico, y que sirva también tanto para investigación -vertiente científica-, como, sobre todo, para control de calidad -vertiente técnica-, - y ni mucho menos tampoco se dispone todavía, de especificación química alguna que precise el contenido máximo de Al2O3r- (%) que tiene que poseer una puzolana natural o artificial, para poder ser añadida al cemento Portland y/o al hormigón que va a estar sometido a un determinado ataque químico agresivo de los mencionados antes, y, en especial, a sulfatos, a cloruros o al agua de mar. Y para mayor justificación de ambas necesidades, se ha de decir también que la vigente Instrucción de Hormigón Estructural EHE-08 no contempla tampoco especificación química alguna sobre los "factores hidráulicos", en general, ni del contenido de Al2O3r-(%) de las cenizas volantes, muy en particular, en su Artículo 30º "Adiciones", ni en ningún otro Artículo, a pesar de que sí contempla, en cambio, - otras especificaciones químicas que carecen del necesario significado en cuanto a la necesidad de llevar explícita o implícitamente, el mensaje de la Durabilidad Química deseado, y - el Artículo 37º, el cual y para mayor abundamiento se titula paradójicamente "Durabilidad del hormigón y de las armaduras". Asimismo, tampoco se contempla en la última versión que acaba de publicarse de la norma EN 197-1 titulada: "Cementos. Parte 1: Composición, especificaciones y criterios de conformidad de los cementos comunes". Ni tampoco, en la norma EN 450-1:2006 titulada "Cenizas volantes para hormigón. Parte 1: Definiciones, especificaciones y criterios de conformidad", ni en la vigente Instrucción española para la Recepción de Cementos, RC-08, ni en la norma ASTM C618-03 tampoco. La única especificación química que ambas normas, la europea y la norteamericana, refieren es aquella que dice que la suma de los contenidos porcentuales de SiO2 total, Al2O3 total y Fe2O3 total, de la puzolana natural o artificial, ha de ser mayor o igual que 70 %, definiendo, además, a las puzolanas de este modo tan genérico: "materiales silíceos o silíceos y aluminosos, que por sí mismos no poseen valor cementante alguno, pero que finamente divididos y en presencia de humedad, reaccionarán químicamente con hidróxido de calcio a temperaturas ordinarias para formar compuestos que poseen propiedades cementantes". Por consiguiente y de acuerdo con todo lo anterior, el objetivo primordial de esta Tesis Doctoral ha sido: Diseñar y poner a punto un nuevo método analítico de utilidad técnica (que la duración máxima del ensayo no sea mayor de 28 días), para determinar el contenido de alúmina reactiva, vítrea o amorfa, Al2O3r-, de las puzolanas naturales y artificiales. Y una vez puesto a punto, validarlo a nivel de su repetibilidad, de acuerdo con parámetros estadísticos apropiados, poniendo especial énfasis en los criterios de aceptación establecidos por la American Association of Official Analytical Chemists (AOAC). Y para conseguirlo, la innovación de esta investigación se ha basado en los siguientes fundamentos generales, a saber: - Toda la alúmina de cualquier puzolana natural o artificial, capaz de ser atacada, disuelta y lixiviada en 28 días, por la portlandita o por el hidróxido de calcio, Ca(OH)2, en medio acuoso, es considerada como alúmina reactiva, Al2O3r-. - Dicha fracción alumínica reactiva de la puzolana natural o artificial se tiene que encontrar, además, en el estado físico-químico de poder reaccionar químicamente también, en presencia de hidróxido de calcio, cloruro de sodio y agua, para originar monocloro¿aluminato de calcio hidratado, C3A·CaCl2·10H2O, o sal de Friedel. Además, dicho estado físico-químico de la puzolana ha de ser acorde con la definición de alúmina reactiva adoptada en esta investigación en razón de las prestaciones reales de durabilidad química que le puede llegar a conferir a los cementos de mezcla y a sus productos derivados, hormigones, morteros y pastas, que se fabriquen con la misma. - La originalidad de este nuevo método analítico, respecto a los demás métodos ya existentes, reside en que la cuantificación de dicha fracción alumínica reactiva de la puzolana natural o artificial, se realiza mediante cálculo estequiométrico, basándose, para ello, en dicha reacción química de formación de sal de Friedel precisamente, tras 28 días de hidratación básica-salina acelerada de la puzolana natural o artificial, habiéndose realizado, además, en esta investigación dicha determinación cuantitativa de la cantidad de sal de Friedel originada por cada puzolana, mediante dos técnicas analíticas instrumentales que fueron las siguientes: el análisis termogravimétrico (variante I ó I-I en su caso) y el método de Rietveld con la difracción de Rayos X en polvo (variante II). - La reacción química de formación de sal de Friedel tras 28 días de hidratación básica-salina acelerada de las puzolanas que se analicen, se optimizó para asegurar que el único compuesto químico de aluminio y cloro formado fuese sal de Friedel nada más (dosificando para ello en cantidad adecuada los reactivos químicos necesarios: Ca(OH)2, NaCl y agua destilada), manteniendo, además y por otra parte, el compromiso apropiado entre el máximo rendimiento de dicha reacción química (ataque, disolución y lixiviación en 28 días, de toda la alúmina reactiva de la puzolana) y el modo y medios más adecuados de acelerarlo para conseguirlo fue a 40°C de temperatura, con agitación constante y cierre hermético del reactor. - La aplicabilidad y selectividad del nuevo método analítico, objeto de esta Tesis Doctoral, fue estudiada con una serie de puzolanas naturales y artificiales españolas, silíceas y/o silíceas y aluminosas en naturaleza, que fueron las siguientes: M0 (metacaolín 0), M1 (M0 con 50 % de cuarzo), C y L (puzolanas naturales de las Islas Canarias), CV10 y CV17 (cenizas volantes), A (puzolana natural de Almagro), O (puzolana natural de Olot) y HS (humo de sílice). - Todas las adiciones minerales anteriores cumplieron con los principales requisitos físicos y químicos que son preceptivos para poder considerarlas, antes de todo, como puzolanas, lo que era indispensable y de obligado cumplimiento, para poderles determinar su contenido total de Al2O3r- (%) mediante el nuevo método analítico. Estos condicionantes fueron los siguientes: grado adecuado de finura de molido o tamaño medio de partícula (según la norma EN 451-2), haber sido analizadas químicamente antes de todo (según la norma EN 196-2 ó la ASTM C311), con el fin de determinarles especialmente, sus contenidos totales de SiO2 (%), Al2O3 (%) y Fe2O3 (%), haberles determinado, además, su contenido de sílice reactiva, SiO2r- (%) (según la norma UNE 80225), y haber cumplido con el ensayo de puzolanicidad o de Frattini (según la norma EN 196-5) a la edad de 28 días al menos. Este último requisito, otrora de obligado cumplimiento hasta el año 1988, para cualquier puzolana natural y artificial que una fábrica de cementos pretendiera introducir en el proceso de fabricación de un nuevo cemento puzolánico o cemento tipo CEM IV, ha logrado así, que se tenga que volver utilizar de nuevo de forma obligada con esta Tesis Doctoral. Y los resultados obtenidos con el nuevo método analítico de los contenidos de Al2O3r-(%) de las puzolanas seleccionadas, fueron los siguientes: - Mediante su variante I: M0 29.9 %, M1 16.9 %, CV10 11.4 %, L 12.3 %, C 12.6 %, A 8.0 %, CV17 9.5 % y O 6.3 % de Al2O3r-, y - Mediante su variante II: M0 30.7 %, M1 15.4 %, CV10 14.7%, L 11.8 %, C 11.1 %, A 8.9 %, CV17 9.6 % y O 6.8 % de Al2O3r-. Finalmente, todos ellos fueron contrastados, además, mediante la calibración y validación del nuevo método analítico, con los valores de referencia obtenidos de esas mismas puzolanas, los cuales se les habían determinado mediante el método de Florentín, consistente en atacar, disolver y lixiviar también toda la fracción alumínica soluble de la puzolana (y además, aquella silícica y férrica que la constituyen a la par), pero, en especial, su contenido total de alúmina reactiva, mediante un ataque básico (con Ca(OH)2 en medio acuoso a temperatura del laboratorio, habiendo sido, además, su duración hasta 1 año), seguido de otro ácido (con HCl, d = 1.12), habiéndose obtenido esta vez los siguientes resultados de sus contenidos de Al2O3r- (%): M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % y O 9.5 %. Dicha validación realizada ha puesto de manifiesto, en términos generales, que el nuevo método analítico es más fidedigno que el de Florentín, por lo que resulta ser totalmente apropiado para obtener los resultados que se han pretendido, además de proporcionarlos en un espacio de tiempo relativamente corto (28 días a lo sumo) y a un coste económico razonable por no elevado (salvo error u omisión y libre de impuestos directos e indirectos, el coste económico estimado de la variante I estaría en torno a 800.00 - 900.00 €/puzolana -caso más probable-, y aproximadamente una tercera parte nada más, en el caso de que la edad máxima del ensayo acelerado sea 7 días nada más -caso menos probable-), y, por consiguiente, técnicamente aceptable, al cumplir, además, en todo el rango considerado de variabilidad posible de concentraciones o contenidos del analito buscado en la puzolana, con tales parámetros de validación como son: linealidad (los resultados obtenidos son directamente proporcionales a la señal-respuesta instrumental recibida), sensibilidad, precisión excelente, repetibilidad satisfactoria de los valores obtenidos de los contenidos de Al2O3r- de todas y cada una de las adiciones puzolánicas seleccionadas, confirmando, por ello, la universalidad de su uso. Finalmente, las ventajas del nuevo método analítico, respecto a los métodos ya existentes recopilados de la bibliografía (el método de Florentín, el método de López Ruiz -HF 40 % y HNO3 2N-, el método de Murat y Driouche para arcillas -HF 0.5M-, el método de Arjuan, Silbee y Roy para cenizas volantes -HF 1 %- y su modificación por Fernández-Jiménez y cols. -HF 1 %, 27Al NMR MAS y XRD (método de Rietveld)-, y el método de determinación de la relación SiO2r-/Al2O3r- para arcillas y cenizas volantes por Ruiz-Santaquiteria y cols. -HF 1 %, NaOH 8M y ICP-AES-) son, principalmente, estar exento de peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, ser bastante apropiado para control de calidad además de para investigación, su considerable menor coste económico, su relativamente corto espacio de tiempo que se necesita para obtener la respuesta-resultado pretendida (28 días a lo sumo), así como su universalidad y selectividad, puesto que además, su aplicabilidad es para todo tipo de adiciones puzolánicas naturales o artificiales, como así lo demuestran los resultados obtenidos de los materiales puzolánicos naturales y artificiales seleccionados y analizados, en un rango de concentraciones del analito -contenido de alúmina reactiva, Al2O3r- (%)-, desde el 5 % hasta el 30 % en masa, rango éste que, por otra parte, comprende prácticamente TODAS las adiciones puzolanas naturales y artificiales existentes en el mercado transnacional y las aún por existir. Por consiguiente y de acuerdo con lo anterior, el nuevo método analítico, ya sea realizado mediante su variante I o la II, debido, - en primer lugar, a los fundamentados planteamientos relativos a su procedimiento experimental -modus operandi- el cual ha sido aplicado a una amplia gama de puzolanas naturales y artificiales, y - en segundo lugar, debido a la calidad de los resultados obtenidos con un grado de precisión y repetibilidad excelentes, ha demostrado poseer una gran utilidad científica -para investigación-, pero, sobre todo, técnica -para control de calidad de adiciones puzolánicas naturales y artificiales que se adicionan habitualmente al cemento Portland en fábrica y/o a sus hormigones y morteros en planta-, además de ser representativos los valores obtenidos mediante el mismo respecto a la más que probable durabilidad química que cada una de ellas puede llegarle a conferir al hormigón armado y en masa, mortero y pasta del que forme parte, así como también su cantidad adecuada de sustitución parcial de cada cemento Portland para conseguirla, acorde con sus propias prestaciones químico-físicas o físico-químicas que puede llegarle a conferir, según sea su carácter químico (alumínico, alumínico-silícico, silícico-alumínico, silícico-férrico-alumínico o silícico), forma y tamaño medio de su partícula. Por último, el nuevo método analítico ha demostrado cumplir además, con todos los requisitos de obligado cumplimiento que establece la norma ISO/IEC 17025 sobre la calidad y fiabilidad de nuevos métodos o procedimientos analíticos no normalizados todavía, para poder ser propuesto en un futuro próximo, ante la Comisión de AENOR correspondiente, con objeto de comenzar un expediente para su certificación y normalización. ________________________________________________________________________________ Both the subject of this research, its objectives, fundamentals, materials selected and experimental part to achieve, have all been promoted by the situation and the state of reinforced concrete constructions that began performing in Spain from 1975, with concrete and mortars cement containing fly ash up to 20 %, in principle, and later, up to 35 % to its content of Portland cement, which and against expected, demanded a need to improve their performance, especially due to an unexpectedly low level of durability of some works built with them, despite, however, its apparent benefits of all kinds are ascribed to them. Ultimately, the natural or artificial pozzolanic additions, such as fly ash specially, referred to above, have been used with regulation to manufacture cements and/or its derivatives, concretes, mortars, cement pastes, in the most industrialized countries. More than three decades ago, under the same conditions and identical construction mainly uses concretes and mortars plain Portland cement, besides coming, given that use of these waste materials, industrial by-products today for environmental and/or economic issues. For this reason, this Doctoral Thesis aims to answer properly and schematically (in the form of flow chart), the criteria to be taken into account when selection and characterization standardized for these active mineral additions, especially prior to choosing and use in the so-called Portland Cement (PC) pozzolan, or with fly ash or with calcined shales or with calcined pozzolans or with silica fume or PC mixed or pozzolanic cement or compound cement, for that such pathology problems will not occur when reinforced concretes nor mass concretes are used for building. Hence the very particular and special focus about this research, having confined only to the natural or artificial pozzolans, considering them all, regardless of their origin, approach as materials consisting of small crystalline fractions randomly distributed in a largely vitreous and/or amorphous matrix, which confers their reactivity with calcium hydroxide in the form of slaked lime or portlandite from PC. In turn, these vitreous and/or amorphous fractions consist in its greater part, by reactive silica, SiO2r-, reactive alumina, Al2O3r-, and reactive iron oxide, Fe2O3r-, which also receive, in conjunction, the specific name of "hydraulic factors" of the pozzolan. Usually, they all differs in quantity of their respective total contents of the SiO2 (%), Al2O3 (%) and Fe2O3 (%) determined the pozzolan by alkaline fusion by means of standard procedures. Of the three above-mentioned oxides reagents and from the technical point of view, the most important for its increased presence in every one of the natural or artificial pozzolans and also significance in the chemical durability that can get them to give the concrete mortar or cement paste which contain them, are SiO2r- and Al2O3r-. From the first two, the SiO2r- reacts with portlandite only, released in the hydration of the PC (and with Ca(OH)2), to form C-S-H gels, transformed in tobermorites or jennites later on, similar to C-S-H gels also originating from the alite and belite hydration in the CP. From the standardization criteria point of view, the presence of this silicic fraction in pozzolans is regulated at first, by the European standard EN 197-1, in general, also being referred by the EN 450-1:2006, in the context of the fly ash in addition to the concrete, as a "fine powder of spherical particles mainly crystalline form. It is from the combustion of pulverized coal, which have pozzolanic properties and is mainly composed of SiO2 and Al2O3". In addition and according to the EN 197-1 standard, the reactive silica content (which can be defined and determined in accordance with EN 197-1 standard or its UNE 80225 standard) must not be lower than 25 % of its mass. Meanwhile, considerable experimental studies by Talero and Talero et al, have shown that if the pozzolan is not adequate in quality nor quantity, the durability of cement that is part and, therefore, of its derivative products, concretes, mortars and pastes cement, can become abnormally low because its reactive alumina, Al2O3r- (%), content or tetra- or penta-coordinated alumina which involves itself in a very direct and totally mixed and conflicting results even at all aggressive chemical attack natural to produce to the concrete, mortar and paste with inadequate natural and/or artificial pozzolans, such as those from the selenitous land and waters (sulfates, strikes if the material itself concrete, mortar and paste that contain them, for rapid forming ettringite form, ett-rf, which can even cause rapid gypsum attack to said concrete). In contrast, sea spray and de-icing salts (chlorides strikes the reinforced steel concrete causing them electrochemical corrosion by "bite", although in that other chemical attack, such Al2O3r- causes rapid Friedel's salt formation, Fs-rf, too, to cause protector effect of the electrochemical corrosion of reinforcements for these chlorides), seawater (mutual aggressive action of chlorides and sulfates), carbonation, alkali-silica reaction, and, in addition, to influence the release of hydration heat, as well as in the rheological behavior of the pastes, etc., decreasing/shorting them thus their expected durability and sometimes even very seriously. But the most ironic thing is, that despite its referral totally opposed, compared to sulfates and chlorides, behaviour, - far not available is, a chemical analysis method for its quantitative determination, which is also relatively simple in operation, accurate, precise, rapid response, from a technical point of view for building (no more than 28 days), repeatable, reproducible, not involving danger to life safety of the people who need to manipulate and implement, economic, and also serve for both scientific research and technical side, and - has yet to be any chemical specification that sets maximum levels for Al2O3r-(%) in the natural or artificial pozzolan to be added to the cement and/or to the concrete that will be subject to a particularly aggressive chemical attack from those mentioned above, and in particular, to sulphates, chlorides or sea water. And for the sake of and justification of this need, it has to be said that the current Spanish Instruction for Structural Concrete EHE-08 does not provide any specification on "hydraulic factors" in general, nor the content of Al2O3r- (%) in fly ash, very particular, as Article 30º "Additions", or any other Article, although does provide, however, other chemical specifications lacking the necessary meaning in terms of the message Chemical Durability mentioned, nor the Article 37º which and for greater sake, is paradoxically entitled "Durability of the concrete and of their reinforcements". It has also not contemplated in the latest version just released from EN 197-1 standard entitled "Cement Part 1: Composition, specifications and conformity criteria for common cements". Nor, in EN 450-1:2006 entitled "Fly ash for concrete Part 1: Definitions, specifications and conformity criteria", nor by current Spanish Instruction for Cement Reception, RC-08, nor the ASTM C618-03 Standard either. The only chemical specification that both Standards, European and American, refer is one that says that the sum of the total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%) of natural and artificial pozzolan, must be greater than or equal to 70 % , defining pozzolans thus: "siliceous or aluminous and siliceous materials, which themselves do not have any cementitious value but finely divided and in the presence of moisture it reacts with calcium hydroxide at ordinary temperatures to form compounds possessing cementitious properties". Consequently and according to everything related before, the primary objective of this Doctoral Thesis has been: To design and start-up a new quantitative analytical method of technical utility (the maximum test duration is not more than 28 days), to determine the content of reactive alumina content, Al2O3r- (%), vitreous or amorphous alumina, of natural and artificial pozzolans. And once designed, validate at repeatability level and in accordance with appropriate statistical parameters with special emphasis on the acceptance criteria established by the American Association of Official Analytical Chemists (AOAC). And to achieve this, the innovation of this research has been based on the following general principles, namely: - All the alumina in any pozzolan, natural or artificial, that can be attacked, dissolved and leached by portlandite or calcium hydroxide, Ca(OH)2, in aqueous medium, is considered reactive alumina, Al2O3r-. - This aluminic fraction of natural or artificial pozzolan to analyze and study, has to be in such physical-chemical state that it can react in the presence of calcium hydroxide, sodium chloride and water status and to cause monochloro-aluminate hydrated calcium, C3A·CaCl2·10H2O or Friedel's salt. Moreover, such physical-chemical state of the pozzolan must be consistent with the definition of reactive alumina adopted in this research because of the actual performance of chemical durability that can reach confer on blended cements and their derivatives, concretes, mortars and pastes that are manufactured with the same. - The originality of this new analytical method, compared to the other methods for determining reactive alumina existing (collected in abbreviated form in the state of the art of this report), is the quantification of such aluminic fraction of natural or artificial pozzolans is performed by stoichiometric calculation based on this, in the chemical reaction of Friedel's salt formation after 28 days of the analysis of saline-basic hydration accelerated natural or artificial pozzolan also performed in this research, and the quantitative determination of the Friedel's salt has been performed by two instrumental analytical techniques known as thermogravimetric analysis (variant I), and Rietveld method with X-ray powder diffraction (variant II). - The chemical reaction of Friedel's salt formation after 28 days of accelerated saline-basic hydration of the selected natural and artificial pozzolan, was optimized to ensure that the single chemical compound of aluminium and chlorine formed was Friedel's salt only (dosing for this purpose in amount suitable chemical reagents: Ca(OH)2, NaCl and distilled water), and, on the other hand, maintaining the appropriate compromise between the highest yield from the chemical reaction (attack, dissolution and leaching in 28 days, all reactive alumina of pozzolan) and to accelerate the etching media, which were 40°C temperature, constant stirring and sealing the reactor. - The applicability and selectivity of the new analytical method, the subject of this Doctoral Thesis, was studied with a series of Spanish natural and artificial pozzolans, siliceous or siliceous and aluminous in nature, which were as follows: M0 (metakaolin 0), M1 (M0 with 50 % quartz), L and C (natural pozzolans of the Canary Islands), CV10 (fly ash 10), CV17 (fly ash 17), A (natural pozzolan of Almagro), O (natural pozzolan of Olot), and HS (silica fume). - All mineral admixtures were selected satisfied the physical and chemical requirements proposed to consider them as pozzolan, which was mandatory, so its Al2O3r- (%) content can determine by the new analytical method. These conditions were as follows: adequate degree of fineness of grind or average particle size (according to EN 451-2 standard), have been analyzed chemically (according to EN 196-2 or ASTM C311 standards), in order to determine their total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%), mainly, having also determined its reactive silica content, SiO2r- (%) (UNE 80225 standard), and fulfilled with testing of pozzolanicity or Frattini test (according to EN 196-5 standard) at 28 days age at least. The last criteria was mandatory until 1988, for any natural and artificial pozzolan to a factory intended to introduce cements in the manufacturing process of a new Portland cement type CEM IV pozzolanic additions, and with this Doctoral Thesis has made is to be used once again mandatory. And the results obtained using the new analytical method, of the Al2O3r- (%) content for each selected pozzolan, were as follows: - by its variant I: M0 29.9 % , M1 16.9 % , CV10 11.4 % , L 12.3 % , C 12.6 % , A 8.0 % , CV17 9.5 % and O 6.3 % of Al2O3r-, and - by its variant II: M0 30.7 % , M1 15.4 % , CV10 14.7% % , L 11.8 % , C 11.1 % , A 8.9 % , CV17 9.6 % and O 6.8 % of Al2O3r-. Finally, they would all be further contrasted by the calibration and validation of new analytical method, with reference values obtained from these same natural and artificial pozzolans, which had been given by the method of Florentin, consisting of attack, dissolve and leached with a basic attack (with Ca(OH)2 in aqueous medium and laboratory temperature, having also been its duration up to 1 year), followed by another acid attack (HCl, d = 1.12), all soluble aluminic fraction of pozzolan, and in particular their total content of reactive alumina, Al2O3r-(%), was this time as follows: M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % and O 9.5 % (and their siliceous and iron contents that are at par). This validation has shown on the new analytical method is more reliable than Florentin method, so it turns out to be entirely appropriate to get the results that have been tried by the same, besides providing them a relatively short space of time (28 days at most) and reasonably no high economic cost (unless mistake -free direct and indirect taxes, such economic cost would be between 800.00 - 900.00 €/pozzolan (most likely case), and about an one-third part around, in the event that the maximum age of the accelerated test is 7 days only (less likely case). So it is technically acceptable, to consider the range of possible variability of concentrations or contents pozzolan analyte with validation parameters such as: linearity (the results obtained are directly proportional to the instrumental response signal received), excellent sensitivity and accuracy, satisfactory repeatability values from the contents of each and Al2O3r- (%) each selected pozzolan, confirming therefore universal use. Finally, the advantages of the new analytical method over existing methods compiled from literature (Florentin method , the Lopez Ruiz method -HF and HNO3 40 % 2N-, the method of Murat and Driouche for clays -0.5M HF-, the method of Arjuan, Roy and Silbee for fly ash -HF 1 %- and its modification by Fernández-Jiménez et al -HF 1 %, 27Al MAS NMR and XRD (Rietveld method)-, and the method for determining the SiO2r-/Al2O3r- clay and fly ash ratio of Santaquiteria Ruiz et al -HF 1 %, NaOH 8M and ICP-AES-) are primarily and relatively short time get the result intended answer (28 days at most), its considerable lower cost, free from danger to the life safety of the people who need to manipulate and put in practice as well as its universality and selectivity, since it is applicable for all types of natural or artificial pozzolans, as it has been shown by the results of selected natural and artificial pozzolanic materials and analyzed in a range of analyte concentrations -reactive alumina, Al2O3r- (%) content- from 5 % to 30 % by mass, this range, on the other hand, includes virtually ALL existing transnational market in natural and artificial pozzolans and still exist. Therefore and in accordance with the above, the new analytical method is already performed by the variant I or II, because, - firstly, grounded to experimental approaches concerning its experimental procedure -"modus operandi"- which has been applied to a wide range of natural and artificial pozzolans, and - secondly, due to the quality of the results obtained with a great degree of accuracy and repeatability, it has been shown to possess significant scientific value in the research, but especially technical value -for quality control of natural and artificial pozzolans commonly added to Portland cement factory and/or directly to their concrete and mortar in plant-, and also be representative enough of the values obtained by the same probable chemical durability that each of them can reach out to give the concrete mortar and paste to which it belongs, as well as proper amount of partial replacement of Portland cement. To get in line with their own chemical-physical or physical-chemical features which can come to confer, as its chemical character (aluminic, silicic-aluminic, aluminic-silicic, aluminic-ferric-silicic or ferric-silicic), form and medium size of its particle is. Finally, the new analytical method has proven to meet all mandatory requirements established by ISO/IEC 17025 on the quality and reliability of new methods or analytical procedures are not standardized yet, in order to be considered appropriate this new analytical method, in this Doctoral Thesis it is to be proposed in the near future, before the corresponding AENOR (Spanish Association for Standardization and Certification) Commission, to start a procedure for certification and standardization.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

During launch, satellite and their equipment are subjected to loads of random nature and with a wide frequency range. Their vibro-acoustic response is an important issue to be analysed, for example for folded solar arrays and antennas. The main issue at low modal density is the modelling combinations engaging air layers, structures and external fluid. Depending on the modal density different methodologies, as FEM, BEM and SEA should be considered. This work focuses on the analysis of different combinations of the methodologies previously stated used in order to characterise the vibro-acoustic response of two rectangular sandwich structure panels isolated and engaging an air layer between them under a diffuse acoustic field. Focusing on the modelling of air layers, different models are proposed. To illustrate the phenomenology described and studied, experimental results from an acoustic test on an ARA-MKIII solar array in folded configuration are presented along with numerical results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Satellites and space equipment are exposed to diffuse acoustic fields during the launch process. The use of adequate techniques to model the response to the acoustic loads is a fundamental task during the design and verification phases. Considering the modal density of each element is necessary to identify the correct methodology. In this report selection criteria are presented in order to choose the correct modelling technique depending on the frequency ranges. A model satellite’s response to acoustic loads is presented, determining the modal densities of each component in different frequency ranges. The paper proposes to select the mathematical method in each modal density range and the differences in the response estimation due to the different used techniques. In addition, the methodologies to analyse the intermediate range of the system are discussed. The results are compared with experimental testing data obtained in an experimental modal test.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The extreme runup is a key parameter for a shore risk analysis in which the accurate and quantitative estimation of the upper limit reached by waves is essential. Runup can be better approximated by splitting the setup and swash semi-amplitude contributions. In an experimental study recording setup becomes difficult due to infragravity motions within the surf zone, hence, it would be desirable to measure the setup with available methodologies and devices. In this research, an analysis is made of evaluated the convenience of direct estimation setup as the medium level in the swash zone for experimental runup analysis through a physical model. A physical mobile bed model was setup in a wave flume at the Laboratory for Maritime Experimentation of CEDEX. The wave flume is 36 metres long, 6.5 metres wide and 1.3 metres high. The physical model was designed to cover a reasonable range of parameters, three different slopes (1/50, 1/30 and 1/20), two sand grain sizes (D50 = 0.12 mm and 0.70 mm) and a range for the Iribarren number in deep water (ξ0) from 0.1 to 0.6. Best formulations were chosen for estimating a theoretical setup in the physical model application. Once theoretical setup had been obtained, a comparison was made with an estimation of the setup directly as a medium level of the oscillation in swash usually considered in extreme runup analyses. A good correlation was noted between both theoretical and time-averaging setup and a relation is proposed. Extreme runup is analysed through the sum of setup and semi-amplitude of swash. An equation is proposed that could be applied in strong foreshore slope-dependent reflective beaches.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Passengers’ comfort in terms of acoustic noise levels is a key design driver for train design. The problem is especially relevant for high speed trains, where the aerodynamic induced noise is dominant, but it is also important for medium speed trains where the mechanical sources of noise may have more influence. The numerical interior noise prediction inside the train is a very comp lex problem, involving many different parameters: complex geometries and materials, different noise sources, com- plex interactions among those sources, broad range of frequencies where the phenomenon is important, etc. In this paper, the main findings of this work developed at IDR/UPM (Instituto de Microgravedad “Ignacio Da Riva”, Universidad Politécnica de Madrid) are presented, concentrat ing on the different modelling methodologies used for the different frequency ranges of interest, from FEM-BEM models, hybrid FEM-SEA to pure SEA models. The advantages and disadvantages of the different approaches are summarized. Different modelling techniques have also been evaluated and compared, taking into account the various and specific geometrical configurations typical in this type of structures, and the material properties used in the models. The critical configuration of the train inside a tunnel is studied in order to evaluate the external loads due to noise sources of the train. In this work, a SEA-model composed by periodic characteristic sections of a high spee d train is analysed inside a tunnel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El sector de la edificación es uno de los principales sectores económicos en España y, además, es un componente básico de la actividad económica y social, debido a su importante papel como generador de empleo, proveedor de bienes e incentivador del crecimiento. Curiosamente, es uno de los sectores con menos regulación y organización y que, además, está formado mayoritariamente por empresas de pequeña y mediana dimensión (pymes) que, por su menor capacidad, a menudo, se quedan detrás de las grandes empresas en términos de adopción de soluciones innovadoras. La complejidad en la gestión de toda la información relacionada con un proyecto de edificación ha puesto de manifiesto claras ineficiencias que se traducen en un gasto innecesario bastante representativo. La información y los conocimientos aprendidos rara vez son transmitidos de una fase a otra dentro del proyecto de edificación y, mucho menos, reutilizados en otros proyectos similares. De este modo, no sólo se produce un gasto innecesario, sino que incluso podemos encontrar información contradictoria y obsoleta y, por tanto, inútil para la toma de decisiones. A lo largo de los años, esta situación ha sido motivada por la propia configuración del sector, poniendo de manifiesto la necesidad de una solución que pudiera solventar este reto de gestión interorganizacional. Así, la cooperación interorganizacional se ha convertido en un factor clave para mejorar la competitividad de las organizaciones, típicamente pymes, que componen el sector de la edificación. La información es la piedra angular de cualquier proceso de negocio. Durante la última década, una amplia gama de industrias han experimentado importantes mejoras de productividad con la aplicación eficiente de las TIC, asociadas, principalmente, a incrementos en la velocidad de proceso de información y una mayor coherencia en la generación de datos, accesibilidad e intercambio de información. La aplicación eficaz de las TIC en el sector de la edificación requiere una combinación de aspectos estratégicos y tácticos, puesto que no sólo se trata de utilizar soluciones puntuales importadas de otros sectores para su aplicación en diferentes áreas, sino que se buscaría que la información multi-agente estuviera integrada y sea coherente para los proyectos de edificación. El sector de la construcción ha experimentado un descenso significativo en los últimos años en España y en Europa como resultado de la crisis financiera que comenzó en 2007. Esta disminución está acompañada de una baja penetración de las TIC en la interorganizacionales orientadas a los procesos de negocio. El descenso del mercado ha provocado una desaceleración en el sector de la construcción, donde sólo las pymes flexibles han sido capaces de mantener el ritmo a pesar de la especialización y la innovación en los servicios adaptados a las nuevas demandas del mercado. La industria de la edificación está muy fragmentada en comparación con otras industrias manufactureras. El alto grado de esta fragmentación está íntimamente relacionado con un impacto significativo en la productividad y el rendimiento. Muchos estudios de investigación han desarrollado y propuesto una serie de modelos de procesos integrados. Por desgracia, en la actualidad todavía no se está en condiciones para la formalización de cómo debe ser la comunicación y el intercambio de información durante el proceso de construcción. El paso del proceso secuencial tradicional a los procesos de interdependencia recíproca sin lugar a duda son una gran demanda asociada a la comunicación y el flujo de información en un proyecto de edificación. Recientemente se está poniendo mucho énfasis en los servicios para el hogar como un primer paso hacia esta mejora en innovación ya que la industria de los servicios digitales interactivos tiene un alto potencial para generar innovación y la ventaja estratégica para las empresas existentes. La multiplicidad de servicios para el hogar digital (HD) y los proveedores de servicios demandan, cada vez más, la aparición de una plataforma capaz de coordinar a todos los agentes del sector con el usuario final. En consecuencia, las estructuras organizacionales tienden a descentralizarse en busca de esa coordinación y, como respuesta a esta demanda, se plantea, también en este ámbito, el concepto de cooperación interorganizacional. Por lo tanto, ambos procesos de negocio -el asociado a la construcción y el asociado a la provisión de servicios del hogar digital, también considerado como la propia gestión de ese hogar digital o edificio, inteligente o no- deben de ser vistos en su conjunto mediante una plataforma tecnológica que les dé soporte y que pueda garantizar la agregación e integración de los diversos procesos, relacionados con la construcción y gestión, que se suceden durante el ciclo de vida de un edificio. Sobre esta idea y atendiendo a la evolución permanente de los sistemas de información en un entorno de interrelación y cooperación daría lugar a una aplicación del concepto de sistema de información interorganizacional (SIIO). El SIIO proporciona a las organizaciones la capacidad para mejorar los vínculos entre los socios comerciales a lo largo de la cadena de suministro, por lo que su importancia ha sido reconocida por organizaciones de diversos sectores. Sin embargo, la adopción de un SIIO en diferentes ámbitos ha demostrado ser complicada y con una alta dependencia de las características particulares de cada sector, siendo, en este momento, una línea de investigación abierta. Para contribuir a esta línea de investigación, este trabajo pretende recoger, partiendo de una revisión de la literatura relacionada, un enfoque en un modelo de adopción de un SIIO para el objeto concreto de esta investigación. El diseño de un SIIO está basado principalmente, en la identificación de las necesidades de información de cada uno de sus agentes participantes, de ahí la importancia en concretar un modelo de SIIO en el ámbito de este trabajo. Esta tesis doctoral presenta el modelo de plataforma virtual de la asociación entre diferentes agentes del sector de la edificación, el marco de las relaciones, los flujos de información correspondientes a diferentes procesos y la metodología que subyace tras el propio modelo, todo ello, con el objeto de contribuir a un modelo unificado que dé soporte tanto a los procesos relacionados con la construcción como con la gestión de servicios en el hogar digital y permitiendo cubrir los requisitos importantes que caracterizan este tipo de proyectos: flexibilidad, escalabilidad y robustez. El SIIO se ha convertido en una fuente de innovación y una herramienta estratégica que permite a las pymes obtener ventajas competitivas. Debido a la complejidad inherente de la adopción de un SIIO, esta investigación extiende el modelo teórico de adopción de un SIIO de Kurnia y Johnston (2000) con un modelo empírico para la caracterización de un SIIO. El modelo resultante tiene como objetivo fomentar la innovación de servicios en el sector mediante la identificación de los factores que influyen en la adopción de un SIIO por las pymes en el sector de la edificación como fuente de ventaja competitiva y de colaboración. Por tanto, esta tesis doctoral, proyectada sobre una investigación empírica, proporciona un enfoque para caracterizar un modelo de SIIO que permita dar soporte a la gestión integrada de los procesos de construcción y gestión de servicios para el hogar digital. La validez del modelo de SIIO propuesto, como fuente y soporte de ventajas competitivas, está íntimamente relacionada con la necesidad de intercambio de información rápido y fiable que demandan los agentes del sector para mejorar la gestión de su interrelación y cooperación con el fin de abordar proyectos más complejos en el sector de la edificación, relacionados con la implantación del hogar digital, y contribuyendo, así a favorecer el desarrollo de la sociedad de la información en el segmento residencial. ABSTRACT The building industry is the largest industry in the world. Land purchase, building design, construction, furnishing, building equipment, operations maintenance and the disposition of real estate have an unquestionable prominence not only at economic but also at social level. In Spain, the building sector is one of the main drivers of economy and also a basic component of economic activity and its role in generating employment, supply of goods or incentive for growth is crucial in the evolution of the economy. Surprisingly, it is one of the sectors with less regulation and organization. Another consistent problem is that, in this sector, the majority of companies are small and medium (SMEs), and often behind large firms in terms of their adoption of innovative solutions. The complexity of managing all information related to this industry has lead to a waste of money and time. The information and knowledge gathered is frequently stored in multiple locations, involving the work of thousands of people, and is rarely transferred on to the next phase. This approach is inconsistent and makes that incorrect information is used for decisions. This situation needs a viable solution for interorganizational information management. So, interorganizational co-operation has become a key factor for organization competitiveness within the building sector. Information is the cornerstone of any business process. Therefore, information and communication technologies (ICT) offer a means to change the way business is conducted. During the last decade, significant productivity improvements were experienced by a wide range of industries with ICT implementation. ICT has provided great advantages in speed of operation, consistency of data generation, accessibility and exchange of information. The wasted money resulting from reentering information, errors and omissions caused through poor decisions and actions, and the delays caused while waiting for information, represent a significant percentage of the global benefits. The effective application of ICT in building construction sector requires a combination of strategic and tactical developments. The building sector has experienced a significant decline in recent years in Spain and in Europe as a result of the financial crisis that began in 2007. This drop goes hand in hand with a low penetration of ICT in inter-organizational-oriented business processes. The market decrease has caused a slowdown in the building sector, where only flexible SMEs have been able to keep the pace though specialization and innovation in services adapted to new market demands. The building industry is highly fragmented compared with other manufacturing industries. This fragmentation has a significant negative impact on productivity and performance. Many research studies have developed and proposed a number of integrated process models. Unfortunately, these studies do not suggest how communication and information exchange within the construction process can be achieved, without duplication or lost in quality. A change from the traditional sequential process to reciprocal interdependency processes would increase the demand on communication and information flow over the edification project. Focusing on home services, the digital interactive service industry has the potential to generate innovation and strategic advantage for existing business. Multiplicity of broadband home services (BHS) and suppliers suggest the need for a figure able to coordinate all the agents in sector with the final user. Consequently, organizational structures tend to be decentralized. Responding to this fact, the concept of interorganizational co-operation also is raising in the residential market. Therefore, both of these business processes, building and home service supply, must be complemented with a technological platform that supports these processes and guarantees the aggregation and integration of the several services over building lifecycle. In this context of a technological platform and the permanent evolution of information systems is where the relevance of the concept of inter-organizational information system (IOIS) emerges. IOIS improves linkages between trading partners along the supply chain. However, IOIS adoption has proved to be difficult and not fully accomplished yet. This research reviews the literature in order to focus a model of IOIS adoption. This PhD Thesis presents a model of virtual association, a framework of the relationships, an identification of the information requirements and the corresponding information flows, using the multi-agent system approach. IOIS has become a source of innovation and a strategic tool for SMEs to obtain competitive advantage. Because of the inherent complexity of IOIS adoption, this research extends Kurnia and Johnston’s (2000) theoretical model of IOIS adoption with an empirical model of IOIS characterization. The resultant model aims to foster further service innovation in the sector by identifying the factors influencing IOIS adoption by the SMEs in the building sector as a source of competitive and collaborative advantage. Therefore, this PhD Thesis characterizes an IOIS model to support integrated management of building processes and home services. IOIS validity, as source and holder of competitive advantages, is related to the need for reliable information interchanges to improve interrelationship management. The final goal is to favor tracking of more complex projects in building sector and to contribute to consolidation of the information society through the provision of broadband home services and home automation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La necesidad de desarrollar técnicas para predecir la respuesta vibroacústica de estructuras espaciales lia ido ganando importancia en los últimos años. Las técnicas numéricas existentes en la actualidad son capaces de predecir de forma fiable el comportamiento vibroacústico de sistemas con altas o bajas densidades modales. Sin embargo, ambos rangos no siempre solapan lo que hace que sea necesario el desarrollo de métodos específicos para este rango, conocido como densidad modal media. Es en este rango, conocido también como media frecuencia, donde se centra la presente Tesis doctoral, debido a la carencia de métodos específicos para el cálculo de la respuesta vibroacústica. Para las estructuras estudiadas en este trabajo, los mencionados rangos de baja y alta densidad modal se corresponden, en general, con los rangos de baja y alta frecuencia, respectivamente. Los métodos numéricos que permiten obtener la respuesta vibroacústica para estos rangos de frecuencia están bien especificados. Para el rango de baja frecuencia se emplean técnicas deterministas, como el método de los Elementos Finitos, mientras que, para el rango de alta frecuencia las técnicas estadísticas son más utilizadas, como el Análisis Estadístico de la Energía. En el rango de medias frecuencias ninguno de estos métodos numéricos puede ser usado con suficiente precisión y, como consecuencia -a falta de propuestas más específicas- se han desarrollado métodos híbridos que combinan el uso de métodos de baja y alta frecuencia, intentando que cada uno supla las deficiencias del otro en este rango medio. Este trabajo propone dos soluciones diferentes para resolver el problema de la media frecuencia. El primero de ellos, denominado SHFL (del inglés Subsystem based High Frequency Limit procedure), propone un procedimiento multihíbrido en el cuál cada subestructura del sistema completo se modela empleando una técnica numérica diferente, dependiendo del rango de frecuencias de estudio. Con este propósito se introduce el concepto de límite de alta frecuencia de una subestructura, que marca el límite a partir del cual dicha subestructura tiene una densidad modal lo suficientemente alta como para ser modelada utilizando Análisis Estadístico de la Energía. Si la frecuencia de análisis es menor que el límite de alta frecuencia de la subestructura, ésta se modela utilizando Elementos Finitos. Mediante este método, el rango de media frecuencia se puede definir de una forma precisa, estando comprendido entre el menor y el mayor de los límites de alta frecuencia de las subestructuras que componen el sistema completo. Los resultados obtenidos mediante la aplicación de este método evidencian una mejora en la continuidad de la respuesta vibroacústica, mostrando una transición suave entre los rangos de baja y alta frecuencia. El segundo método propuesto se denomina HS-CMS (del inglés Hybrid Substructuring method based on Component Mode Synthesis). Este método se basa en la clasificación de la base modal de las subestructuras en conjuntos de modos globales (que afectan a todo o a varias partes del sistema) o locales (que afectan a una única subestructura), utilizando un método de Síntesis Modal de Componentes. De este modo es posible situar espacialmente los modos del sistema completo y estudiar el comportamiento del mismo desde el punto de vista de las subestructuras. De nuevo se emplea el concepto de límite de alta frecuencia de una subestructura para realizar la clasificación global/local de los modos en la misma. Mediante dicha clasificación se derivan las ecuaciones globales del movimiento, gobernadas por los modos globales, y en las que la influencia del conjunto de modos locales se introduce mediante modificaciones en las mismas (en su matriz dinámica de rigidez y en el vector de fuerzas). Las ecuaciones locales se resuelven empleando Análisis Estadístico de Energías. Sin embargo, este último será un modelo híbrido, en el cual se introduce la potencia adicional aportada por la presencia de los modos globales. El método ha sido probado para el cálculo de la respuesta de estructuras sometidas tanto a cargas estructurales como acústicas. Ambos métodos han sido probados inicialmente en estructuras sencillas para establecer las bases e hipótesis de aplicación. Posteriormente, se han aplicado a estructuras espaciales, como satélites y reflectores de antenas, mostrando buenos resultados, como se concluye de la comparación de las simulaciones y los datos experimentales medidos en ensayos, tanto estructurales como acústicos. Este trabajo abre un amplio campo de investigación a partir del cual es posible obtener metodologías precisas y eficientes para reproducir el comportamiento vibroacústico de sistemas en el rango de la media frecuencia. ABSTRACT Over the last years an increasing need of novel prediction techniques for vibroacoustic analysis of space structures has arisen. Current numerical techniques arc able to predict with enough accuracy the vibro-acoustic behaviour of systems with low and high modal densities. However, space structures are, in general, very complex and they present a range of frequencies in which a mixed behaviour exist. In such cases, the full system is composed of some sub-structures which has low modal density, while others present high modal density. This frequency range is known as the mid-frequency range and to develop methods for accurately describe the vibro-acoustic response in this frequency range is the scope of this dissertation. For the structures under study, the aforementioned low and high modal densities correspond with the low and high frequency ranges, respectively. For the low frequency range, deterministic techniques as the Finite Element Method (FEM) are used while, for the high frequency range statistical techniques, as the Statistical Energy Analysis (SEA), arc considered as more appropriate. In the mid-frequency range, where a mixed vibro-acoustic behaviour is expected, any of these numerical method can not be used with enough confidence level. As a consequence, it is usual to obtain an undetermined gap between low and high frequencies in the vibro-acoustic response function. This dissertation proposes two different solutions to the mid-frequency range problem. The first one, named as The Subsystem based High Frequency Limit (SHFL) procedure, proposes a multi-hybrid procedure in which each sub-structure of the full system is modelled with the appropriate modelling technique, depending on the frequency of study. With this purpose, the concept of high frequency limit of a sub-structure is introduced, marking out the limit above which a substructure has enough modal density to be modelled by SEA. For a certain analysis frequency, if it is lower than the high frequency limit of the sub-structure, the sub-structure is modelled through FEM and, if the frequency of analysis is higher than the high frequency limit, the sub-structure is modelled by SEA. The procedure leads to a number of hybrid models required to cover the medium frequency range, which is defined as the frequency range between the lowest substructure high frequency limit and the highest one. Using this procedure, the mid-frequency range can be define specifically so that, as a consequence, an improvement in the continuity of the vibro-acoustic response function is achieved, closing the undetermined gap between the low and high frequency ranges. The second proposed mid-frequency solution is the Hybrid Sub-structuring method based on Component Mode Synthesis (HS-CMS). The method adopts a partition scheme based on classifying the system modal basis into global and local sets of modes. This classification is performed by using a Component Mode Synthesis, in particular a Craig-Bampton transformation, in order to express the system modal base into the modal bases associated with each sub-structure. Then, each sub-structure modal base is classified into global and local set, fist ones associated with the long wavelength motion and second ones with the short wavelength motion. The high frequency limit of each sub-structure is used as frequency frontier between both sets of modes. From this classification, the equations of motion associated with global modes are derived, which include the interaction of local modes by means of corrections in the dynamic stiffness matrix and the force vector of the global problem. The local equations of motion are solved through SEA, where again interactions with global modes arc included through the inclusion of an additional input power into the SEA model. The method has been tested for the calculation of the response function of structures subjected to structural and acoustic loads. Both methods have been firstly tested in simple structures to establish their basis and main characteristics. Methods are also verified in space structures, as satellites and antenna reflectors, providing good results as it is concluded from the comparison with experimental results obtained in both, acoustic and structural load tests. This dissertation opens a wide field of research through which further studies could be performed to obtain efficient and accurate methodologies to appropriately reproduce the vibro-acoustic behaviour of complex systems in the mid-frequency range.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One of the main objectives of European Commission related to climate and energy is the well-known 20-20-20 targets to be achieved in 2020: Europe has to reduce greenhouse gas emissions of at least 20% below 1990 levels, 20% of EU energy consumption has to come from renewable resources and, finally, a 20% reduction in primary energy use compared with projected levels, has to be achieved by improving energy efficiency. In order to reach these objectives, it is necessary to reduce the overall emissions, mainly in transport (reducing CO2, NOx and other pollutants), and to increase the penetration of the intermittent renewable energy. A high deployment of battery electric (BEVs) and plug-in hybrid electric vehicles (PHEVs), with a low-cost source of energy storage, could help to achieve both targets. Hybrid electric vehicles (HEVs) use a combination of a conventional internal combustion engine (ICE) with one (or more) electric motor. There are different grades of hybridation from micro-hybrids with start-stop capability, mild hybrids (with kinetic energy recovery), medium hybrids (mild hybrids plus energy assist) and full hybrids (medium hybrids plus electric launch capability). These last types of vehicles use a typical battery capacity around 1-2 kWh. Plug in hybrid electric vehicles (PHEVs) use larger battery capacities to achieve limited electric-only driving range. These vehicles are charged by on-board electricity generation or either plugging into electric outlets. Typical battery capacity is around 10 kWh. Battery Electric Vehicles (BEVs) are only driven by electric power and their typical battery capacity is around 15-20 kWh. One type of PHEV, the Extended Range Electric Vehicle (EREV), operates as a BEV until its plug-in battery capacity is depleted; at which point its gasoline engine powers an electric generator to extend the vehicle's range. The charging of PHEVs (including EREVs) and BEVs will have different impacts to the electric grid, depending on the number of vehicles and the start time for charging. Initially, the lecture will start analyzing the electrical power requirements for charging PHEVs-BEVs in Flanders region (Belgium) under different charging scenarios. Secondly and based on an activity-based microsimulation mobility model, an efficient method to reduce this impact will be presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Energía eléctrica producida mediante tecnología eólica flotante es uno de los recursos más prometedores para reducir la dependencia de energía proveniente de combustibles fósiles. Esta tecnología es de especial interés en países como España, donde la plataforma continental es estrecha y existen pocas áreas para el desarrollo de estructuras fijas. Entre los diferentes conceptos flotantes, esta tesis se ha ocupado de la tipología semisumergible. Estas plataformas pueden experimentar movimientos resonantes en largada y arfada. En largada, dado que el periodo de resonancia es largo estos puede ser inducidos por efectos de segundo orden de deriva lenta que pueden tener una influencia muy significativa en las cargas en los fondeos. En arfada las fuerzas de primer orden pueden inducir grandes movimientos y por tanto la correcta determinación del amortiguamiento es esencial para la analizar la operatividad de la plataforma. Esta tesis ha investigado estos dos efectos, para ello se ha usado como caso base el diseño de una plataforma desarrollada en el proyecto Europeo Hiprwind. La plataforma se compone de 3 columnas cilíndricas unidas mediante montantes estructurales horizontales y diagonales, Los cilindros proporcionan flotabilidad y momentos adrizante. A la base de cada columna se le ha añadido un gran “Heave Plate” o placa de cierre. El diseño es similar a otros diseños previos (Windfloat). Se ha fabricado un modelo a escala de una de las columnas para el estudio detallado del amortiguamiento mediante oscilaciones forzadas. Las dimensiones del modelo (1m diámetro en la placa de cierre) lo hacen, de los conocidos por el candidato, el mayor para el que se han publicado datos. El diseño del cilindro se ha realizado de tal manera que permite la fijación de placas de cierre planas o con refuerzo, ambos modelos se han fabricado y analizado. El modelo con refuerzos es una reproducción exacta del diseño a escala real incluyendo detalles distintivos del mismo, siendo el más importante la placa vertical perimetral. Los ensayos de oscilaciones forzadas se han realizado para un rango de frecuencias, tanto para el disco plano como el reforzado. Se han medido las fuerzas durante los ensayos y se han calculado los coeficientes de amortiguamiento y de masa añadida. Estos coeficientes son necesarios para el cálculo del fondeo mediante simulaciones en el dominio del tiempo. Los coeficientes calculados se han comparado con la literatura existente, con cálculos potenciales y por ultimo con cálculos CFD. Para disponer de información relevante para el diseño estructural de la plataforma se han medido y analizado experimentalmente las presiones en la parte superior e inferior de cada placa de cierre. Para la correcta estimación numérica de las fuerzas de deriva lenta en la plataforma se ha realizado una campaña experimental que incluye ensayos con modelo cautivo de la plataforma completa en olas bicromaticas. Pese a que estos experimentos no reproducen un escenario de oleaje realista, los mismos permiten una verificación del modelo numérico mediante la comparación de fuerzas medidas en el modelo físico y el numérico. Como resultados de esta tesis podemos enumerar las siguientes conclusiones. 1. El amortiguamiento y la masa añadida muestran una pequeña dependencia con la frecuencia pero una gran dependencia con la amplitud del movimiento. siendo coherente con investigaciones existentes. 2. Las medidas con la placa de cierre reforzada con cierre vertical en el borde, muestra un amortiguamiento significativamente menor comparada con la placa plana. Esto implica que para ensayos de canal es necesario incluir estos detalles en el modelo. 3. La masa añadida no muestra grandes variaciones comparando placa plana y placa con refuerzos. 4. Un coeficiente de amortiguamiento del 6% del crítico se puede considerar conservador para el cálculo en el dominio de la frecuencia. Este amortiguamiento es equivalente a un coeficiente de “drag” de 4 en elementos de Morison cuadráticos en las placas de cierre usadas en simulaciones en el dominio del tiempo. 5. Se han encontrado discrepancias en algunos valores de masa añadida y amortiguamiento de la placa plana al comparar con datos publicados. Se han propuesto algunas explicaciones basadas en las diferencias en la relación de espesores, en la distancia a la superficie libre y también relacionadas con efectos de escala. 6. La presión en la placa con refuerzos son similares a las de la placa plana, excepto en la zona del borde donde la placa con refuerzo vertical induce una gran diferencias de presiones entre la cara superior e inferior. 7. La máxima diferencia de presión escala coherentemente con la fuerza equivalente a la aceleración de la masa añadida distribuida sobre la placa. 8. Las masas añadidas calculadas con el código potencial (WADAM) no son suficientemente precisas, Este software no contempla el modelado de placas de pequeño espesor con dipolos, la poca precisión de los resultados aumenta la importancia de este tipo de elementos al realizar simulaciones con códigos potenciales para este tipo de plataformas que incluyen elementos de poco espesor. 9. Respecto al código CFD (Ansys CFX) la precisión de los cálculos es razonable para la placa plana, esta precisión disminuye para la placa con refuerzo vertical en el borde, como era de esperar dado la mayor complejidad del flujo. 10. Respecto al segundo orden, los resultados, en general, muestran que, aunque la tendencia en las fuerzas de segundo orden se captura bien con los códigos numéricos, se observan algunas reducciones en comparación con los datos experimentales. Las diferencias entre simulaciones y datos experimentales son mayores al usar la aproximación de Newman, que usa únicamente resultados de primer orden para el cálculo de las fuerzas de deriva media. 11. Es importante remarcar que las tendencias observadas en los resultados con modelo fijo cambiarn cuando el modelo este libre, el impacto que los errores en las estimaciones de fuerzas segundo orden tienen en el sistema de fondeo dependen de las condiciones ambientales que imponen las cargas ultimas en dichas líneas. En cualquier caso los resultados que se han obtenido en esta investigación confirman que es necesaria y deseable una detallada investigación de los métodos usados en la estimación de las fuerzas no lineales en las turbinas flotantes para que pueda servir de guía en futuros diseños de estos sistemas. Finalmente, el candidato espera que esta investigación pueda beneficiar a la industria eólica offshore en mejorar el diseño hidrodinámico del concepto semisumergible. ABSTRACT Electrical power obtained from floating offshore wind turbines is one of the promising resources which can reduce the fossil fuel energy consumption and cover worldwide energy demands. The concept is the most competitive in countries, such as Spain, where the continental shelf is narrow and does not provide space for fixed structures. Among the different floating structures concepts, this thesis has dealt with the semisubmersible one. Platforms of this kind may experience resonant motions both in surge and heave directions. In surge, since the platform natural period is long, such resonance can be excited with second order slow drift forces and may have substantial influence on mooring loads. In heave, first order forces can induce significant motion, whose damping is a crucial factor for the platform downtime. These two topics have been investigated in this thesis. To this aim, a design developed during HiPRWind EU project, has been selected as reference case study. The platform is composed of three cylindrical legs, linked together by a set of structural braces. The cylinders provide buoyancy and restoring forces and moments. Large circular heave plates have been attached to their bases. The design is similar to other documented in literature (e.g. Windfloat), which implies outcomes could have a general value. A large scale model of one of the legs has been built in order to study heave damping through forced oscillations. The final dimensions of the specimen (one meter diameter discs) make it, to the candidate’s knowledge, the largest for which data has been published. The model design allows for the fitting of either a plain solid heave plate or a flapped reinforced one; both have been built. The latter is a model scale reproduction of the prototype heave plate and includes some distinctive features, the most important being the inclusion of a vertical flap on its perimeter. The forced oscillation tests have been conducted for a range of frequencies and amplitudes, with both the solid plain model and the vertical flap one. Forces have been measured, from which added mass and damping coefficients have been obtained. These are necessary to accurately compute time-domain simulations of mooring design. The coefficients have been compared with literature, and potential flow and CFD predictions. In order to provide information for the structural design of the platform, pressure measurements on the top and bottom side of the heave discs have been recorded and pressure differences analyzed. In addition, in order to conduct a detailed investigation on the numerical estimations of the slow-drift forces of the HiPRWind platform, an experimental campaign involving captive (fixed) model tests of a model of the whole platform in bichromatic waves has been carried out. Although not reproducing the more realistic scenario, these tests allowed a preliminary verification of the numerical model based directly on the forces measured on the structure. The following outcomes can be enumerated: 1. Damping and added mass coefficients show, on one hand, a small dependence with frequency and, on the other hand, a large dependence with the motion amplitude, which is coherent with previously published research. 2. Measurements with the prototype plate, equipped with the vertical flap, show that damping drops significantly when comparing this to the plain one. This implies that, for tank tests of the whole floater and turbine, the prototype plate, equipped with the flap, should be incorporated to the model. 3. Added mass values do not suffer large alterations when comparing the plain plate and the one equipped with a vertical flap. 4. A conservative damping coefficient equal to 6% of the critical damping can be considered adequate for the prototype heave plate for frequency domain analysis. A corresponding drag coefficient equal to 4.0 can be used in time domain simulations to define Morison elements. 5. When comparing to published data, some discrepancies in added mass and damping coefficients for the solid plain plate have been found. Explanations have been suggested, focusing mainly on differences in thickness ratio and distance to the free surface, and eventual scale effects. 6. Pressures on the plate equipped with the vertical flap are similar in magnitude to those of the plain plate, even though substantial differences are present close to the edge, where the flap induces a larger pressure difference in the reinforced case. 7. The maximum pressure difference scales coherently with the force equivalent to the acceleration of the added mass, distributed over the disc surface. 8. Added mass coefficient values predicted with the potential solver (WADAM) are not accurate enough. The used solver does not contemplate modeling thin plates with doublets. The relatively low accuracy of the results highlights the importance of these elements when performing potential flow simulations of offshore platforms which include thin plates. 9. For the full CFD solver (Ansys CFX), the accuracy of the computations is found reasonable for the plain plate. Such accuracy diminishes for the disc equipped with a vertical flap, an expected result considering the greater complexity of the flow. 10. In regards to second order effects, in general, the results showed that, although the main trend in the behavior of the second-order forces is well captured by the numerical predictions, some under prediction of the experimental values is visible. The gap between experimental and numerical results is more pronounced when Newman’s approximation is considered, making use exclusively of the mean drift forces calculated in the first-order solution. 11. It should be observed that the trends observed in the fixed model test may change when the body is free to float, and the impact that eventual errors in the estimation of the second-order forces may have on the mooring system depends on the characteristics of the sea conditions that will ultimately impose the maximum loads on the mooring lines. Nevertheless, the preliminary results obtained in this research do confirm that a more detailed investigation of the methods adopted for the estimation of the nonlinear wave forces on the FOWT would be welcome and may provide some further guidance for the design of such systems. As a final remark, the candidate hopes this research can benefit the offshore wind industry in improving the hydrodynamic design of the semi-submersible concept.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis constituye un avance en el estudio de los métodos para cuantificar la fibra soluble y los efectos de las fracciones de fibra y las fuentes de fibra sobre la digestión de las diferentes fracciones de fibra (soluble e insoluble) en el conejo. Hay un efecto positivo de la fibra soluble sobre la salud intestinal de los conejos y, por ende, una reducción de la mortalidad en animales destetados. Pese a esto, no está claro si estos efectos se deben específicamente a la fracción soluble. Por lo que los objetivos generales de esta tesis fueron: 1) comparar diferentes metodologías químicas e in vitro para cuantificar la fibra soluble y estudiar las posibles interferencias en la cuantificación de la fibra soluble por las mucinas, y viceversa, 2) determinar los efectos de la fibra, el lugar de fermentación, el método para valorar la fibra soluble e insoluble, y la corrección de la fibra soluble por el contenido intestinal de mucinas sobre la digestibilidad de las distintas fracciones de la fibra y 3) evaluar los efectos individuales de las fracciones soluble e insoluble de la fibra de pulpa de remolacha y de manzana, sobre la digestibilidad de la fibra soluble e insoluble y los parámetros digestivos. Para ello se llevaron a cabo 4 estudios. En el primer estudio se compararon diferentes metodologías químicas e in vitro para valorar la fibra soluble de diferentes alimentos y se estudió la posible interferencia en la determinación de la fibra soluble y mucinas. Para ello se utilizaron seis ingredientes (pulpa de remolacha, pectinas de pulpa de remolacha, pulpa de remolacha lavada, paja de cereal, cascarilla de girasol y lignocelulosa) y siete piensos de conejos con diferentes niveles de fibra soluble. En un primer experimento se analizó la fibra dietética total (FDT), la fibra dietética insoluble (FDI), la fibra dietética soluble (FDS), la fibra neutro detergente corregida por cenizas y proteínas (aFNDmo-pb), y la digestibilidad in vitro 2 pasos pepsina/pancreatina (residuo corregido por cenizas y proteína, ivMSi2) de los ingredientes y piensos. Además la fibra soluble se calculó mediante la diferencia entre FDT-FDI (FDSFDI), FDT- ivMSi2 (FDSivMSi2), y FDT - aFNDmo-pb (FDSaFNDmo-pb). Cuando la fibra soluble se determinó directamente como FDS o se calculó como FDT-FDI no se observaron diferencias (109 g/kg MS, en promedio). Sin embargo, cuando la fibra soluble se calculó como FDT - aFNDmo-pb su valor fue un 40% menor (153 g/kg MS. P < 0,05), mientras que la FDSFDI (124 g/kg MS) no fue diferente a ninguna de las otras metodologías. La correlación entre los tres métodos fue elevada (r > 0,96. P < 0,001. n = 13), pero disminuyó o incluso desapareció cuando la pulpa o las pectinas de la remolacha fueron excluidas del análisis. En un segundo experimento, se comparó el método ivDMi2 usando crisoles (método de referencia) con una modificación del mismo usando bolsas ANKOM digeridas individualmente o en colectivo para simplificar la determinación de la FDSivMSi2. La FDSivMSi2 no difirió entre los métodos comparados. En un tercer experimento, se analizó la posible interferencia entre la determinación de la fibra soluble y las mucinas intestinales. Se observó un contenido de FDT y de mucinas elevado en las muestras de pectinas de remolacha (994 y 709 g/kg MS), así como en el moco intestinal de conejo (571 y 739 g/kg MS) cuando se aplicó el método de mucinas por precipitación con etanol. Sin embargo, después de aplicar una pectinasa en el material precipitado, la cantidad de mucinas recuperadas en las muestras de pectinas de remolacha fue cercana a cero, mientras que en el moco intestinal fue similar a los resultados previos al uso de la enzima. Con los resultados de este ensayo se estimaron los carbohidratos de mucinas retenidos en los contenidos digestivos y se propuso una corrección para la determinación de la digestibilidad de la FDT y fibra soluble. En conclusión, la contaminación de las mucinas de la digesta con fibra soluble se soluciona usando pectinasas. El segundo estudio se centró en estudiar: 1) el efecto del tipo de fibra, 2) el sitio de fermentación, 3) el método para cuantificar fibra y 4) la corrección por mucinas sobre la digestibilidad de la fibra. Para ello se formularon tres piensos con diferentes niveles de fibra soluble (FDT-aFNDmo-pb). Un pienso bajo en fibra soluble (LSF. 85 g/kg DM), un pienso medio en fibra soluble (MSF. 102 g/kg DM), y un pienso alto en fibra soluble (HSF. 145 g/kg DM). Estos piensos se obtuvieron reemplazando un 50% del heno del alfalfa en el pienso MSF por una mezcla de pulpa de manzana y remolacha (HSF) o por una mezcla de cascarilla de avena y proteína de soja (LSF). Se utilizaron 30 conejas canuladas para determinar la digestibilidad ileal y fecal. La digestibilidad cecal se calculó mediante diferencia entre la digestibilidad fecal e ileal. La fibra insoluble se determinó como aFNDmo-pb, IDF, e ivMSi2, mientras que la fibra soluble se calculó como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2. La digestibilidad de la FDT y la fibra soluble se corrigieron por las mucinas. La concentración de mucinas en la digesta ileal y fecal, aumento desde el grupo LSF hasta el grupo con el pienso HSF (P < 0,01). La corrección por mucinas aumentó las digestibilidades de la FDT y la fibra soluble a nivel ileal, mientras que a nivel cecal las redujo. (P < 0.01). El coeficiente de digestibilidad ileal de FDT aumentó desde el grupo LSF al grupo HSF (0,12 vs. 0,281. P < 0,01), sin diferencias en el coeficiente de digestibilidad cecal (0,264), por lo que la tendencia a nivel fecal entre los grupos se mantuvo. El coeficiente de digestibilidad ileal de la fibra insoluble aumento desde el grupo con el pienso LSF al grupo con el pienso HSF (0,113 vs. 0,210. P < 0,01), sin diferencias a nivel cecal (0,139) y sin efecto del método usado, resultando en una digestibilidad elevada a nivel fecal, con tendencias similares a las observadas a nivel ileal. El coeficiente de digestibilidad de la FND fue elevada en comparación con la FDI o la ivMSi2 (P > 0.01). El coeficiente de la digestibilidad ileal de la fibra soluble fue mayor en el grupo LSF respecto al grupo LSF (0,436 vs. 0,145. P < 0,01) y el método no afectó a esta determinación. El coeficiente de la digestibilidad cecal de la fibra soluble se redujo desde el grupo LSF hasta el grupo HSF (0,721 vs. 0,492. P < 0,05). El valor más bajo de digestibilidad cecal y fecal de fibra soluble fue medido con el método FDSaFNDmo-pb (P < 0,01). Se observó una alta correlación entre las digestibilidades de la fibra soluble determinada como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2, por lo tanto la información proporcionada por una u otra metodología fueron similares. Sin embargo, cuando se compararon con efectos fisiológicos (producción de mucinas y peso del ciego y pH del ciego de un trabajo previo), la FDSaFNDmo-pb globalmente mostró estar mejor correlacionado con estos parámetros fisiológicos. En conclusión, la corrección por mucinas es necesaria para determinar la digestibilidad ileal de la FDT y fibra soluble, mientras que la elección de uno u otro método es menos relevante. La inclusión de pulpa de manzana y remolacha incrementa la cantidad de FDT que desaparece antes de llegar al ciego. En el tercer estudio se estudió el efecto de la fracción fibrosa soluble e insoluble de la pulpa de remolacha y el método de cuantificación de la fibra soluble e insoluble sobre la digestibilidad de la fibra y algunos parámetros digestivos. Para ello se formularon cuatro piensos con niveles similares de fibra insoluble (315g aFNDmo-pb/kg MS) y proteína (167 g/kg MS). El pienso control contuvo el nivel más bajo de fibra soluble (30,3 g/kg, con cascarilla de girasol y paja como fuente de fibra). Un segundo pienso se obtuvo mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de remolacha (82,9 g fibra soluble/kg MS). Los otras dos piensos resultaron de la sustitución parcial de las fuentes de fibra del pienso control por la fracción insoluble de la pulpa de remolacha y la pulpa de remolacha entera (42.2 y 82.3 g fibra soluble/kg MS, respectivamente). Cincuenta y seis conejos en cebo (14/pienso), de 2,4  0.21 kg de peso, fueron usados para determinar la digestibilidad ileal y fecal de la FDT, FDI, aFNDmo-pb, FDSFDI, y FDSaFNDmo-pb. La concentración de mucinas en el íleon y heces se utilizaron para corregir la digestibilidad de la FDT y fibra soluble. También se midió el peso de diferentes segmentos del tracto digestivo y el pH del contenido digestivo. Los conejos alimentados con el pienso de fibra insoluble de pulpa de remolacha mostraron los consumos más bajos con respecto a los demás grupos (124 vs. 139 g/d, respectivamente. P < 0,05). El flujo de mucinas ileales fue más alto (P < 0.05) en el grupo alimentado con el pienso de pectinas de remolacha (9,0 g/d en promedio) que los del grupo control (4,79 g/d), mostrando los otros dos grupos valores intermedios, sin detectarse diferencias a nivel fecal. La digestibilidad ileal de la FDT (corregida por mucinas) y la fibra insoluble no se vieron afectadas por el tipo de pienso. El método usado para determinar la fibra insoluble afectó su digestibilidad ileal (0,123 para FDI vs. 0,108 para aFNDmo-pb. P < 0.01). De todas formas, los métodos no afectaron al cálculo de la fibra fermentada antes del ciego (4,9 g/d en promedio). Los conejos alimentados con el pienso de pulpa de remolacha y con el pienso con la fracción insoluble de la pulpa de remolacha mostraron las digestibilidades fecales más altas de la fibra insoluble (0,266 en promedio vs. 0,106 del grupo control), mientras que en los animales del pienso con pectinas esta digestibilidad fue un 47% mayor respecto al pienso control (P < 0,001). La digestibilidad fecal de la fibra insoluble fue un 20% más alta cuando se usó la FND en lugar de FDI para determinarla (P < 0.001). Esto hizo variar la cantidad de fibra insoluble fermentada a lo largo del tracto digestivo (9,5 ó 7,5 g/d cuando fue calculada como FDI o aFNDmo-pb, respectivamente. P < 0,001). Las digestibilidades ileales de la fibra soluble fueron positivas cuando los análisis de fibra soluble de los contenidos ileales fueron corregidos por mucinas, (P < 0,001) excepto para la digestibilidad ileal de la FDSIDF del grupo control. Una vez corregidas por mucinas, los conejos alimentados con los piensos que contuvieron la fracción soluble de la pulpa de remolacha (pienso de pectina y pulpa de remolacha) mostraron una mayor digestibilidad ileal de la fibra soluble, respecto al grupo control (0,483 vs. -0,010. P = 0.002), mientras que el grupo del pienso de fibra insoluble de pulpa de remolacha mostró un valor intermedio (0,274). La digestibilidad total de la fibra soluble fue similar entre todos los grupos (0.93). Los conejos alimentados con pulpa de remolacha y su fracción insoluble mostraron los pesos relativos más altos del estómago respecto a los del pienso control y de pectinas (11 y 56 % respectivamente; P < 0,05). Por otra parte, el peso relativo del ciego aumentó en los animales que consumieron tanto la fracción soluble como insoluble de la pulpa de remolacha, siendo un 16% más pesados (P < 0,001) que el grupo control. El pH del contenido cecal fue más bajo en los animales del grupo de pulpa de remolacha que en los del grupo control (5,64 vs. 6,03; P < 0,001), mientras que los del grupo de pectinas y de fibra insoluble de pulpa de remolacha mostraron valores intermedios. En conclusión, el efecto positivo de la pulpa de remolacha en el flujo de mucinas a nivel ileal se debe a la fracción soluble e insoluble de la pulpa de remolacha. La mitad de la fibra soluble de la pulpa de remolacha desaparece antes de llegar al ciego, independientemente si esta proviene de pectinas puras o de la pulpa de remolacha. El pH cecal esta mejor correlacionado con la cantidad de FDT que desaparece antes del ciego más que con la que se degrada en el ciego. En el último estudio se estudiaron los efectos de la fibra soluble e insoluble de la pulpa de manzana sobre la digestibilidad de la fibra y algunos parámetros digestivos. Cuatro dietas fueron formuladas con niveles similares de fibra insoluble (aFNDmo-pb 32,4%) y proteína (18,6% ambos en base seca). El pienso control contuvo el nivel más bajo de fibra soluble (46 g de fibra soluble/kg, con cascarilla de girasol y paja de cereales como la fuentes de fibra). Un segundo pienso fue obtenido mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de manzana (105 g fibra soluble/kg). Los otros dos piensos se obtuvieron por la substitución de parte de las fuentes de fibra del pienso control por pulpa de manzana o pulpa de manzana despectinizada (93 y 71 g de fibra soluble/kg, respectivamente). La digestibilidad fecal fue determinada en 23 conejos/pienso con 1.68 ± 0.23 kg de peso vivo, los cuales fueron sacrificados a los 60 d edad para recolectar su contenido digestivo para determinar digestibilidad ileal y otros parámetros digestivos. La fibra soluble de manzana (pectinas y pulpa entera) estimuló el flujo ileal de mucinas (P = 0,002), pero no asi la pulpa despectinizada. La corrección por mucinas incrementó la digestibilidad de la FDT y la fibra soluble a nivel fecal, y especialmente a nivel ileal. Cerca de la mitad de la fibra soluble proveniente de los piensos con cualquiera de las fracciones de la pulpa de manzana fue degradada a nivel ileal, sin mostrar diferencias entre los grupos (46 y 86% en promedio a nivel ileal y fecal respectivamente). La inclusión de pulpa despectinizada de manzana mejoró la digestibilidad de la FND a nivel fecal (P < 0,05) pero no a nivel ileal. El contenido cecal de los conejos alimentados con la pulpa de manzana tuvieron el pH cecal más ácido que los del pienso control (5,55 vs. 5,95. P < 0,001), mientras que los animales con el pienso de pectinas de manzana y de pulpa de manzana despectinizada mostraron valores intermedios. En conclusión los efectos positivo de la pulpa de manzana en el flujo de mucinas se debió principalmente a la fracción soluble de la pulpa de manzana. La mitad de la fibra soluble fue degradada antes del ciego independientemente de si esta provino de las pectinas o de la pulpa de manzana. El pH cecal estuvo mejor correlacionado con la cantidad de FDT fermentada en todo el tracto digestivo y antes de llegar al ciego que con la que se degradó en el ciego. Al integrar los resultados de los estudio 2, 3 y 4 se concluyó que la corrección de mucinas de los contenidos digestivos al determinar FDT y fibra soluble es necesaria para ajustar los cálculos de su digestibilidad. Esta corrección es mucho más importante a nivel ileal y en dietas bajas en fibra soluble. Por otra parte, la FDT desapareció en proporciones importantes antes de llegar al ciego, especialmente en piensos que contienen pulpa de remolacha o de manzana o alguna fracción soluble o insoluble de las mismas y estas diferencias observadas entre los piensos a nivel ileal se correlacionaron mejor con el pH cecal, lo que indicaría que la FDT se solubilizó antes de llegar al ciego y una vez en esté fermentó. Estos resultados implican que determinar la fibra soluble como FDSaFNDmo-pb es la mejor opción y que en la determinación de la digestibilidad de la FDT y fibra soluble se debe considerar la corrección por mucinas especialmente a nivel ileal y en piensos bajos en fibra soluble. ABSTRACT The present thesis constitutes a step forward in advancing the knowledge of the methods to quantify soluble fibre and the effects of the fibre fractions and source of fibre on the site the digestion of different fractions of fibre (soluble and insoluble) in the rabbit. There is a positive effect of soluble fibre on rabbit digestive health and therefore on the reduction of mortality in weaning rabbits. Nevertheless, it is no so clear that the effects of soluble fibre on rabbits are due particularly to this fraction. This thesis aims: 1) to compare the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and to study the potential interference between soluble fibre and mucin determinations, 2) to identify the effects of type of fibre, site of fermentation, method to quantify insoluble and soluble fibre, and correction of the intestinal soluble fibre content for intestinal mucin on the digestibility of fibre fractions and 3) to evaluate the individual effect of soluble and insoluble fibre from sugar beet pulp and apple pulp on ileal and faecal soluble and insoluble digestibility and digestive traits. These objectives were developed in four studies: The first study compared the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and studied the potential interference between soluble fibre and mucin determinations. Six ingredients, sugar beet pulp (SBP), SBP pectins, insoluble SBP, wheat straw, sunflower hulls and lignocellulose, and seven rabbit diets, differing in soluble fibre content, were evaluated. In experiment 1, ingredients and diets were analysed for total dietary fibre (TDF), insoluble dietary fibre (IDF), soluble dietary fibre (SDF), aNDFom (corrected for protein, aNDFom-cp) and 2-step pepsin/pancreatin in vitro DM indigestibility (corrected for ash and protein, ivDMi2). Soluble fibre was estimated by difference using three procedures: TDF - IDF (SDFIDF), TDF - ivDMi2 (SDFivDMi2), and TDF - aNDFom-cp (SDFaNDFom-cp). Soluble fibre determined directly (SDF) or by difference, as SDFivDMi2 were not different (109 g/kg DM, on average). However, when it was calculated as SDFaNDFom-cp the value was 40% higher (153 g/kg DM, P < 0.05), whereas SDFIDF (124 g/kg DM) did not differ from any of the other methods. The correlation between the four methods was high (r ≥ 0.96. P ≤ 0.001. n = 13), but it decreased or even disappeared when SBP pectins and SBP were excluded and a lower and more narrow range of variation of soluble fibre was used. In experiment 2, the ivDMi2 using crucibles (reference method) were compared to those made using individual or collective ankom bags in order to simplify the determination of SDFivDMi2. The ivDMi2 was not different when using crucibles or individual or collective ankom bags. In experiment 3, the potential interference between soluble fibre and intestinal mucin determinations was studied using rabbit intestinal raw mucus, digesta and SBP pectins, lignocelluloses and a rabbit diet. An interference was observed between the determinations of soluble fibre and crude mucin, as the content of TDF and apparent crude mucin were high in SBP pectins (994 and 709 g/kg DM) and rabbit intestinal raw mucus (571 and 739 g/kg DM). After a pectinase treatment, the coefficient of apparent mucin recovery of SBP pectins was close to zero, whereas that of rabbit mucus was not modified. An estimation of the crude mucin carbohydrates retained in digesta TDF is proposed to correct TDF and soluble fibre digestibility. In conclusion, the values of soluble fibre depend on the methodology used. The contamination of crude mucin with soluble fibre is avoided using pectinase. The second study focused on the effect of type of fibre, site of fermentation, method for quantifying insoluble and soluble dietary fibre, and their correction for intestinal mucin on fibre digestibility. Three diets differing in soluble fibre were formulated (85 g/kg DM soluble fibre, in the low soluble fibre [LSF] diet; 102 g/kg DM in the medium soluble fibre [MSF] diet; and 145 g/kg DM in the high soluble fibre [HSF] diet). They were obtained by replacing half of the dehydrated alfalfa in the MSF diet with a mixture of beet and apple pulp (HSF diet) or with a mix of oat hulls and soybean protein (LSF diet). Thirty rabbits with ileal T-cannulas were used to determine total tract apparent digestibility (CTTAD) and ileal apparent digestibility (CIAD). Caecal digestibility was determined by difference between CTTAD and CIAD. Insoluble fibre was measured as aNDFom-cp, IDF, and ivDMi2, whereas soluble fibre was calculated as SDFaNDFom-cp, SDFIDF, SDFivDMi2. The intestinal mucin content was used to correct the TDF and soluble fibre digestibility. Ileal and faecal concentration of mucin increased from the LSF to the HSF diet group (P < 0.01). Once corrected for intestinal mucin, The CTTAD and CIAD of TDF and soluble fibre increased whereas caecal digestibility decreased (P < 0.01). The CIAD of TDF increased from the LSF to the HSF diet group (0.12 vs. 0.281. P < 0.01), with no difference in the caecal digestibility (0.264), resulting in a higher CTTAD from the LSF to the HSF diet group (P < 0.01). The CIAD of insoluble fibre increased from the LSF to the HSF diet group (0.113 vs. 0.21. P < 0.01), with no difference in the caecal digestibility (0.139) and no effect of fibre method, resulting in a higher CTTAD for rabbits fed the HSF diet compared with the MSF and LSF diets groups (P < 0.01). The CTTAD of aNDFom-cp was higher compared with IDF or ivDMi2 (P < 0.01). The CIAD of soluble fibre was higher for the HSF than for the LSF diet group (0.436 vs. 0.145. P < 0.01) and fibre method did not affect it. Caecal soluble fibre digestibility decreased from the LSF to the HSF diet group (0.721 vs. 0.492. P < 0.05). The lowest caecal and faecal soluble fibre digestibility was measured using SDFaNDFom-cp (P < 0.01). There was a high correlation among the digestibilities of soluble fibre measured as SDFaNDFom-cp, SDFIDF, and SDFivDMi2. Therefore, these methodologies provide similar information. However, the method that seems to be globally better related to the physiological traits (ileal flow of mucins, and relative weight of the caecum and caecal pH from previous work) was the SDFaNDFom-cp. In conclusion, a correction for intestinal mucin is necessary for ileal TDF and soluble fibre digestibility whereas the selection of the fibre method has a minor relevance. The inclusion of sugar beet and apple pulp increased the amount of TDF fermented in the small intestine. The third study examined the effect of fibre fractions of sugar beet pulp (SBP) and the method for quantifying soluble and insoluble fibre on soluble and insoluble fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 315 g/kg DM) and protein (167 g/kg DM). Control diet contained the lowest level of soluble fibre (30.3 g/kg DM, including sunflower hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with SBP pectins (82.9 g soluble fibre/kg DM). Two more diets were obtained by replacing part of the fibrous sources of the control diet with either insoluble SBP fibre or SBP (42.2 and 82.3 g soluble fibre/kg DM, respectively). Fifty six (14/diet) rabbits weighing 2.40  0.213 kg were used to determine faecal and ileal digestibility of total dietary fibre (TDF), insoluble dietary fibre (IDF), neutral detergent fibre corrected for ash and CP (aNDFom-cp) and soluble fibre estimated as SDFaNDFom-cp and SDFIDF. Faecal and ileal mucin content was used to correct TDF and soluble fibre digestibility. It was also recorded weight of digestive segments and digesta pH. Rabbits fed insoluble SBP showed the lowest feed intake with respect to the other 3 diets (124 vs. 139 g/d, respectively. P < 0.05). Ileal mucin flow was higher (P < 0.05) in animals fed pectin and SBP diets (9.0 g/d, as average) than those fed control diet (4.79 g/d), showing InsSBP group an intermediate value. No differences on mucin content were detected at faecal level. There was no diet effect on the CIAD of TDF (corrected for mucin) and insoluble fibre. Fibre methodology influenced the CIAD of insoluble fibre (0.123 for IDF vs. 0.108 for aNDFom-cp. P < 0.01). Anyway, the amount of insoluble fibre fermented before the caecum did not differ between both methods (4.9 g/d, on average). Rabbits fed insoluble SBP and SBP diets showed the highest CTTAD of insoluble fibre (0.266 on average vs. 0.106 for control group), whereas those fed pectin diet had an intermediate value (0.106. P < 0.001). The CTTAD of insoluble fibre measured with IDF was higher than that measured with aNDFom-cp (by 20%. P < 0.001). It led that the amount of insoluble fibre fermented along the digestive tract were different (9.5 or 7.5 g/d when calculated as IDF or aNDFom-cp, respectively; P < 0.001). When the CIAD of soluble fibre was corrected for mucin they became positive (P < 0.001) except for control group measured as SDFIDF. Once corrected for mucin content, rabbits fed soluble fibre from SBP (pectin and SBP groups) showed higher CIAD of soluble fibre than control group (0.483 vs. -0.019. respectively), whereas the value for insoluble SBP group was intermediate 0.274. The CTTAD of soluble fibre (mucin corrected) was similar among diets 0.93. Rabbits fed with SBP and insoluble SBP diets showed higher total digestive tract and stomach relative weight than those fed pectin and control diets (by 11 and 56 %. respectively, P < 0.05). The caecal relative weight did not differ in rabbits fed pectin, insoluble SBP, and SBP diets (62 g/kg BW, as average) and they were on average 16% higher (P < 0.001) than in control group. Caecal content of rabbits fed SBP diet was more acid than those fed control diet (5.64 vs. 6.03. P < 0.001), whereas those from pectin and insoluble SBP diets showed intermediate values. In conclusion, the positive effect of SBP fibre on ileal mucin flow was due to both its soluble and insoluble fibre fraction. Half of the soluble SBP fibre was degraded before the caecum independently it came from pectin or SBP. The caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The last study examined the effect of soluble and insoluble fibre of apple pulp on fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 324 g/kg DM) and protein (18.6 g/kg DM). Control diet contained the lowest level of soluble fibre (46 g soluble fibre/kg DM, including oat hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with apple pectins (105 g soluble fibre/kg DM). Two more diets were obtained by substituting part of the fibrous sources of the control diet by either apple pulp or depectinized apple pulp (93 and 71 g soluble fibre/kg, respectively). The CTTAD was determined in 23 rabbits/diet weighing 1.68  0.23 kg BW, and 23 rabbits/diet were slaughtered at 60 d of age to collect ileal digesta to determine CIAD and record other digestive traits. Soluble fibre from apple stimulated ileal flow of mucin (P = 0.002), but depectinized apple pulp did not. The correction for mucin increased the digestibility of crude protein, total dietary fibre, and soluble fibre at faecal, but especially at ileal level, depending in this case on the diet. Around half of the soluble fibre in diets containing any fibre fraction from apple was degraded at ileal level, with no differences among these diets (0.46 vs. 0.066 for control group, P=0.046). Faecal soluble fibre digestibility was 0.86 on average for all groups). Inclusion of the apple insoluble fibre improved NDF digestibility at faecal (0.222 vs. 0.069. P < 0.05) but not at ileal level. Caecal content of rabbits fed apple pulp diet was more acid than those fed control diet (5.55 vs. 5.95. P < 0.001), whereas those from pectin and depectinised apple pulp diets showed intermediate values. In conclusion, the positive effect of apple fibre on ileal mucin flow was mainly due to its soluble fibre fraction. Half of the soluble apple fibre was degraded before the caecum independently it came from pectin or apple pulp. The caecal pH correlated better with the total and ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The results obtained in the studies 2, 3 and 4 were considered together. These results showed that the mucin correction is necessary when the TDF and soluble fibre digestibility is determined, and it correction is more important at ileal level and in diets with low level of soluble fibre. On another hand, incrementing the soluble fibre using sugar beet and apple pulp increased the amount of TDF disappear before the caecum. Moreover, the caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. This suggests that an ileal fibre solubilisation may occur rather than ileal fermentation. Therefore the implications of this work were that: the estimation of soluble fibre as SDFaNDFom-cp is an adequate method considering its correlation with the physiological effects; and the TDF and soluble fibre digestibility must be corrected with intestinal mucins, especially when the ileal digestibility is determined.