122 resultados para Distancias totales recorridas
Procedimiento multicriterio-multiobjetivo de planificación energética a comunidades rurales aisladas
Resumo:
La toma de decisiones en el sector energético se torna compleja frente a las disímiles opciones y objetivos a cumplir. Para minimizar esta complejidad, se han venido desarrollando una gama amplia de métodos de apoyo a la toma de decisiones en proyectos energéticos. En la última década, las energización de comunidades rurales aisladas ha venido siendo prioridad de muchos gobiernos para mitigar las migraciones del campo para la ciudad. Para la toma de decisiones en los proyectos energéticos de comunidades rurales aisladas se necesitan proyectar la influencia que estos tendrás sobre los costes económicos, medioambientales y sociales. Es por esta razón que el presente trabajo tuvo como objetivo diseñar un modelo original denominado Generación Energética Autóctona Y Limpia (GEAYL) aplicado a una comunidad rural aislada de la provincia de Granma en Cuba. Este modelo parte dos modelos que le preceden el PAMER y el SEMA. El modelo GEAYL constituye un procedimiento multicriterio-multiobjetivo de apoyo a la planificación energética para este contexto. Se plantearon cinco funciones objetivos: F1, para la minimización de los costes energéticos; F2 para la minimización de las emisiones de CO2, F3, para la minimización de las emisiones de NOx; F4, para la minimización de las emisiones de SOx (cuyos coeficientes fueron obtenidos a través de la literatura especializada) y F5, para la maximización de la Aceptación Social de la Energía. La función F5 y la manera de obtener sus coeficientes constituye la novedad del presente trabajo. Estos coeficientes se determinaron aplicando el método AHP (Proceso Analítico Jerárquico) con los datos de partidas derivados de una encuesta a los usuarios finales de la energía y a expertos. Para determinar el suministro óptimo de energía se emplearon varios métodos: la suma ponderada, el producto ponderado, las distancias de Manhattan L1, la distancia Euclidea L2 y la distancia L3. Para estas métricas se aplicaron distintos vectores de pesos para determinar las distintas estructuras de preferencias de los decisores. Finalmente, se concluyó que tener en consideración a Aceptación Social de la Energía como una función del modelo influye en el suministro de energía de cada alternativa energética. ABSTRACT Energy planning decision making is a complex task due to the multiple options to follow and objectives to meet. In order to minimize this complexity, a wide variety of methods and supporting tools have been designed. Over the last decade, rural energization has been a priority for many governments, aiming to alleviate rural to urban migration. Rural energy planning decision making must rely on financial, environmental and social costs. The purpose of this work is to define an original energy planning model named Clean and Native Energy Generation (Generación Energética Autóctona Y Limpia, GEAYL), and carry out a case study on Granma Province, Cuba. This model is based on two previous models: PAMER & SEMA. GEAYL is a multiobjective-multicriteria energy planning model, which includes five functions to be optimized: F1, to minimize financial costs; F2, to minimize CO2 emissions; F3, to minimize NOx emissions; F4, to minimize SOx emissions; and F5, to maximize energy Social Acceptability. The coefficients corresponding to the first four functions have been obtained through specialized papers and official data, and the ones belonging to F5 through an Analytic Hierarchy Process (AHP), built as per a statistical enquiry carried out on energy users and experts. F5 and the AHP application are considered to be the novelty of this model. In order to establish the optimal energy supply, several methods have been applied: weighted sum, weighted product, Manhattan distance L1, Euclidean distance L2 and L3. Several weight vectors have been applied to the mentioned distances in order to conclude the decision makers potential preference structure. Among the conclusions of this work, it must be noted that function F5, Social Acceptability, has a clear influence on every energy supply alternative.
Resumo:
Este documento es la primera parte de los apuntes del curso de doctorado "Métodos analíticos y análisis de señal" del Máster Universitario en Tecnologías y Sistemas de Comunicaciones de la ETSIT-UPM. El objetivo del curso es reforzar los recursos matemáticos de los ingenieros de telecomunicación para facilitar la realización de la tesis doctoral. En esta primera parte se intenta facilitar el uso del álgebra lineal como herramienta en esta rama de la ingeniería. Esta parte del curso se divide en tres partes: - En los primeros temas, básicamente de repaso y nivelación, se aprovecha para establecer conexiones entre conceptos de álgebra lineal y de teoría de la señal. - A continuación se estudian el análisis de componentes principales, la descomposición en valores singulares y varias versiones del problema de mínimos cuadrados, temas que probablemente constituyen las herramientas fundamentales para abordar problemas de análisis de señales en términos de subespacios y distancias euclídeas. Los fundamentos proporcionados permiten abordar de forma sencilla otros problemas como el análisis discriminante lineal y el escalado multidimensional. - En los últimos temas se estudian las cuestiones fundamentales relativas a la implementación de algoritmos matriciales, como son ciertas factorizaciones matriciales y los conceptos de condicionamiento y estabilidad.
Resumo:
Se recoge en esta tesis doctoral la definición y clasificación de los edificios cuya finalidad es proporcionar espacios para escuchar y producir música. Se centra en aquellos construidos a lo largo del siglo XX, en el área geográfica y cultural que forman Europa occidental y Estados Unidos. Se analizan edificios construidos en el pasado, en una serie que se origina a mediados del siglo XIX y que se culmina terciado el propio siglo XX. Son edificios que contienen espacios pensados para músicas que, sin embargo, en su mayoría fueron creadas en un periodo anterior, desde mediados del siglo XVIII hasta las primeras décadas del siglo pasado. Un auditorium es un edificio cuya idea conlleva la compleja herencia de los múltiples lugares, abiertos y cerrados, que han alojado la música a lo largo del tiempo. Es un edificio que es útil a la sociedad y que ocupa un lugar significativo dentro de la ciudad, y es consecuencia del campo de fuerzas que constituyen los avances técnicos, el progreso de las sociedades urbanas y la evolución del arte, al compartir estrechamente, música y arquitectura, el interés por hallar la expresión de una nueva relación con la naturaleza. Se parte de la hipótesis de que el auditorium puede constituir un tipo arquitectónico con entidad suficiente para generar una tipología. Entendida ésta como una herramienta que dota de conocimientos útiles a quien va a proyectar un edificio para la música y también que permita abrir el campo de pensamiento sobre el espacio musical, sin necesidad de recurrir a modelos previos, aunque se hayan manifestado útiles y precisos. Se comienza con una aproximación a una definición del término «auditorium » y se analizan a qué funciones responde y en qué es distinto de otros edificios, a través de determinar las características formales propias. Para ello se articula la tesis en varios bloques de análisis. I Elementos para una tipología Se indaga en los atributos que determinan la naturaleza de los auditorios para definir cómo son estos edificios y qué características y condiciones tienen, no sólo las salas sino también los edificios que las contienen, buscando el origen de los espacios musicales y su relación con las personas que allí se han reunido para celebrar, a través de la música, acontecimientos colectivos. Relación que ha comportado desplazamientos por los distintos espacios que ha compartido, supeditada a otras actividades, hasta que finalmente, la música ha reclamado espacios propios. Pero también se establece otra relación física entre las distintas posiciones que ocupan en el espacio cuantos intervienen en la celebración del hecho musical, músicos y público. De otra parte se analiza cómo son sus espacios interiores, salas y vestíbulos, y los volúmenes y formas de los edificios en relación con la ciudad. Su conexión con la idea del paisaje abierto y con el carácter originario de la cueva. II Cinco tiempos Los edificios sobre los que se van explorar estas capacidades son en muchos casos arquitecturas divulgadas y conocidas. Sin embargo no todas han tenido desde su aparición el mismo grado de aprecio ni reconocimiento, y sólo el paso del tiempo ha confirmado su excelencia. El estudio se estructura en los periodos marcados por los acontecimientos bélicos y las grandes crisis que sacudieron Europa y Norte América desde comienzos del siglo XX. La identificación de los elementos significativos de la tipología se hace a través del análisis de distintos tiempos que agrupan casos heterogéneos, tiempos entendidos unas veces como la relación entre edificios coetáneos y otra como proyectos pensados por un mismo arquitecto y se detiene, entre otros, en cuatro excepcionales edificios que condensan la experiencia de varias décadas y demuestran su plenitud arquitectónica, por haber evolucionado de modelos precedentes o por su novedosas aportaciones. El Royal Festival Hall (1951), el Kresge Auditorium (1954), el Kulttuuritalo (1958) y la Philharmonie de Berlín (1963), sirven de base para una clasificación del auditorium. III Cronología gráfica Este apartado es fundamentalmente gráfico y consta un inventario de más de 100 archivos correspondientes a otros tantos auditorios y sus salas, en orden cronológico. Cada archivo cuenta con una imagen del exterior del edificio y otra del interior de la sala. Se han incorporado en cada uno de los archivos, dos dibujos a la misma escala. El primero muestra la planta de la sala con tres parámetros: la ocupación del público en referencia al lugar que ocupa la orquesta, la relación de tamaño entre la sala y las de los cuatro auditorios de referencia y la distancia al foco de sonido, la orquesta, mediante una escala en metros. Estos tres parámetros están superpuestos al que he considerado espacio audible, un rectángulo de 60 por 90 metros, en el que el foco está desplazado, por considerar que el sonido de una orquesta tiene una componente directional y que en esas dimensiones la energía sonora no decae. En el friso bajo el dibujo, aparecen cuatro iconos que informan de la relación formal de la sala con la del auditorium. Puede ser una sala dentro de un edificio sin correspondencia formal, un edificio en el que se manifiesta exteriormente el volumen de la sala, un edificio que tiene la forma de la sala y resuelve el resto del programa funcional sin manifestarlo exteriormente o, finalmente un edificio complejo cuya forma absorbe dos o más salas de música. El segundo dibujo es la sección longitudinal de la sala, recortada sobre un fondo negro para destacar su forma y proporción, todas están a la misma escala y en la misma dirección respecto del escenario para facilitar su lectura y comparación. En el parte inferior de la sección, aparecen cuatro esquemas de la forma y distribución en planta sobre el que destaca la de cada caso de estudio. La forma del techo de las salas de música de los auditorios, expresada a través de la sección longitudinal, es uno de los elementos que caracteriza el espacio musical. El perímetro de la sección, determina su superficie y por tanto, el volumen total interior. Es una herramienta técnica que permite dirigir el sonido reflejado en él, hasta cualquier lugar del interior de la sala, garantizando una distribución homogénea y evitando concentraciones perjudiciales o «sombras acústicas», lugares donde no llegan las primeras reflexiones. IV Geometría de las salas El análisis efectuado permite la elaboración de paralelos de tres de los elementos fundamentales de la tipología de las salas de los auditorium y que definen el espacio musical. El perímetro de la sección y su superficie que establecen el volumen total interior, que es un factor determinante en la reverberación de una sala. La forma y superficie del techo, que interviene directamente en el cálculo de la absorción del sonido, en función de la cualidad reflejante o absorbente del material con el que está construido, y por otra parte en la distribución del sonido en el espacio. Y por último, la forma del suelo de las salas también expresada a través de la sección longitudinal, es otro de los elementos que caracteriza el espacio musical. El modelado del suelo permite mediante distintas pendientes garantizar la correcta visión del escenario y por tanto permite también una buena audición, puesto que la llegada directa del sonido está asegurada. La otra limitación dimensional es el ancho de la grada. Cuando se ha buscado incrementar al máximo la capacidad de una sala, se han establecido graderíos en balcones en voladizo para no penalizar la distancia al escenario, de manera que algunas partes del graderío quedan cubiertas, en detrimento de su calidad acústica al privarlas de las primeras reflexiones que proceden del techo. V Auditórium y ciudad El auditorium es un edificio singular que establece con la ciudad una relación particular y que contiene en su interior una o varias salas especiales destinadas a oír y ejecutar música, a las que se accede a través de otros espacios de carácter social. Han ido evolucionando y modificándose de manera ininterrumpida, dando lugar a edificios de diversa complejidad en su programa y a salas cada vez mas especificas para cumplir mejor su cometido, perfeccionando su sonido y buscando la más elevada musicalidad. Estos edificios disponen de otros ámbitos de relación, son los espacios interiores, vestíbulos y escaleras, generalmente generosos en superficie y espacialidad, previos al espacio musical, corazón del auditorium donde suena la música en condiciones acústicas precisas. También el lugar donde se construyen los auditoriums en las ciudades tiene un especial significado, porque generalmente han buscado interponer espacios abiertos o ajardinados que suavicen el contacto directo con la ciudad y que implican, por otra parte, una preparación de las personas que asisten para escuchar los conciertos. Con el paso del tiempo, la aceptación generalizada de formas afianzadas en la ciudad, será uno de los vehículos que permita contaminar a otros tipos de edificios y alcanzar una libertad formal renovadora de los paisajes urbanos. Conclusiones La disolución del espacio musical convencional pregonado por el pabellón Philips del año 1958, no ha impedido que hoy siga vivo para el arquitecto el reto del proyecto y construcción del auditorium. Hoy conviven experiencias musicales totales; imagen, luz y movimiento, ocupando todo tipo de espacios públicos, cerrados o al aire libre, con la voluntad de conseguir espacios capaces de crear la intimidad y las precisas condiciones ambientales que hagan posible la recreación de las músicas del pasado en una especie de emocionante museo sonoro vivo. Como edificios urbanos, los auditoriums han conseguido un lugar destacado en la iconografía urbana después de un largo camino hasta conseguir el reconocimiento social. Se puede, así, establecer que estos edificios han introducido en la ciudad una nueva manera de expresarse la arquitectura. Que lo inesperado de sus formas y volúmenes en el espacio urbano, o la sorpresa de sus interiores altamente técnicos, justificados para satisfacer las nuevas necesidades impuestas por una audiencia cada vez más y más experta, obtienen la aceptación urbana por su utilidad social y por su capacidad de establecer una relación distinta entre las personas, la ciudad y la naturaleza. Coda Finalmente, el epílogo habla de la metamorfosis del espacio musical y de la convivencia de distintos espacios musicales en la actualidad. Desde la creación de las primeras y sencillas salas de música hasta las grandes salas filarmónicas que se construyen en las últimas décadas, la arquitectura ha proporcionado lugares adecuados para contener y disfrutar la música, espacios que se han modificado según cambiaban las formas musicales. Sin embargo el sonido parece mostrarse reticente a ser encerrado en el espacio y busca aliarse con el tiempo para conseguir un desplazamiento permanente. Seguramente es en el pabellón Philips de Bruselas en 1958 donde se presenta el último intento de la arquitectura de contener la música, que impulsada por tecnologías absolutamente nuevas, se mueve como dardos que atraviesan el espacio en todos los lugares y en todas las direcciones. Desde aquellas décadas centrales del pasado siglo, y superando los mas optimistas intentos de distribuir masivamente la música a través de incipientes tecnologías, se puede afirmar que vivimos en una inmersión sonora universal. Anexos Incluyen, una colección de mapas de la geografía de los auditorios europeos y norte-americanos, referenciados a los periodos de su construcción, y una relación de los auditorios estudiados con referencias bibliográficas. ABSTRACT This doctoral thesis does not only look at the ways in which architecture and music relate with one another; it also seeks to be an exact, scientific study of auditoriums, a building type that first appeared in the 20th century as a place in which to produce and listen to music. It studies concert halls, raised in Europe and the United Stated in the 20th century, for the purpose of recreating older music, that were the result of the evolution of various ancient building types. Auditoriums have a complex heritage of architecture of all times, openair and covered alike, and occupy important spots in cities. They incorporate the technical innovations of their times, and are reflections not only of the music played within them, but also of the societies that built them. Music and architecture share an interest in connecting with nature. Auditorium, a 20th-century Typology tries to define this building typology, and with that, be a practical tool in designing and constructing spaces for music, besides exploring the relationship between the two disciplines, architecture and music, and establishing the foundations for an entire school of thought. It is organized in five chapters, each focusing on a particular aspect of auditoriums, all towards defining a possible typology: I Typology elements. A study of the origin of auditoriums, and of how the different parts of these buildings —the actual concert hall, the foyer, the open spaces— relate with the city and with nature, which is ever present in music and in the origin of auditoriums. II Five sequences. A chronological journey through the 20th century, in periods marked by the two world wars and the consequent crises, with case studies of four exceptional buildings: the Royal Festival Hall (1951), the Kresge Auditorium (1954), the Kulttuuritalo (1958), and the Berlin Philharmonie (1963). III Graphic chronology. A methodical sequence looking at a hundred auditoriums, with each entry presenting images of the concert hall and the building as a whole, and two drawings on the same scale. Each concert hall floor plan shows how the orchestra relates with the audience, and it is compared to the floor plans of the four case-study examples named above. We also see how the hall is set into the building. The second drawing is the longitudinal section of the hall. Ceiling shape much determines the character of concert hall spaces, while technical data like air volume and the amount of absorbent and reflecting materials used have a direct bearing on the reflection of sound and on the overall musical quality of the auditorium. IV Geometry of concert halls. Graphic analysis of the key elements of a music space: the ceiling and the floor plan. The section is a necessary tool for determining the reverberation time of a concert hall, and is closely linked to the shape of the floor plan. In concert halls, there is a strong connection between the ceiling, the walls, and the floor, as there is between different musical instruments. It also includes maps showing where these European and American buildings are located geographically as well as in time. V The auditorium in the city. This chapter presents a series of maps showing the location of auditoriums in the city. They are often located in squares and gardens, open public spaces that serve to emotionally prepare the listener for an imminent musical experience. Time has shown that concert halls have changed the urban landscape and city life. Conclusions As a building type, auditoriums —though «dissolved» by the Philips Pavilion in 1958— remain valid spaces for listening to music. As intimate and unique spaces for social gathering and musical creation, they have done their part in transforming cities. Acoustics play a key role in these technical interiors, but just as important is the rapport that is struck between the musicians and the audience, and between musical works of the past, present, and future. Auditoriums are urban buildings that have been very successful throughout history. They have enriched our cities with surprising shapes and volumes, introduced new interiors in architecture, and struck new relationships between people, the city, and nature. As such, they are necessary. Coda Finally, the epilogue presents the evolution of the music space, from the early simple music halls to the highly complex philharmonic halls of recent years. Architecture has produced spaces for the enjoyment of music that have been modified for new musical creations, while remaining useful for the historical repertoire. Sound, and thus music, has as complex a relationship with space as it does with time. The coda of this thesis is the Philips Pavilion of 1958, perhaps the last attempt to propose a new kind of architecture for music with the latest technology. Annexes The thesis includes a collection of site maps of European and American auditoriums, complete with completion dates and descriptions.
Resumo:
El 12 de agosto de 2014, se registró un sismo de magnitud 5.1, a una profundidad focal de 4 km., en el segmento de falla Bellavista Catequilla, el mismo que fue registrado en 8 estaciones localizadas en la ciudad de Quito. Estas se encuentran ubicadas a distancias epicentrales entre 12 y 19 km. En este artículo se comparan las aceleraciones máximas obtenidas en campo libre, con las que se obtienen al emplear las ecuaciones de movimientos fuertes de Campbell y Borzognia (2013) y el de Zhao et al. (2006). Para ello previamente se determina un plano de ruptura del sismo, utilizando las ecuaciones propuestas por Leonard (2010) y la geometría de las fallas ciegas propuestas por Alvarado (2014). ABSTRACT: On August 12 th 2014, a magnitude 5.1 earthquake occurred at a depth of 4 km, in the Bellavista Catequilla fault segment. This event was recorded by 8 strong-motion stations located between 12 and 19 km from the epicenter, in the city of Quito. In this article, the maximum ground accelerations recorded in free field are compared with the accelerations estimated using the models by Campbell y Borzognia (2013) and Zh ao et al. (2006). To this end, the earthquake rupture plane is determined using the equations proposed by Leonard (2010) and the geometry of the blind fault system of Quito proposed by Alvarado (2014).
Resumo:
Esta Tesis doctoral fue desarrollada para estudiar las emisiones de amoniaco (NH3) y metano (CH4) en purines de cerdos, y los efectos ocasionados por cambios en la formulación de la dieta. Con este propósito, fueron llevados a cabo tres estudios. El experimento 1 fue realizado con el objetivo de analizar los factores de variación de la composición de purines y establecer ecuaciones de predicción para emisiones potenciales de NH3 y CH4. Fueron recogidas setenta y nueve muestras de piensos y purines durante dos estaciones del año (verano y invierno) de granjas comerciales situadas en dos regiones de España (Centro y Mediterráneo). Se muestrearon granjas de gestación, maternidad, lactación y cebo. Se determinó la composición de piensos y purines, y la emisión potencial de NH3 y CH4. El contenido de nutrientes de los piensos fue usado como covariable en el análisis. La espectroscopia de reflectancia del infrarrojo cercano (NIRS) se evaluó como herramienta de predicción de la composición y potencial emisión de gases del purín. Se encontró una amplia variabilidad en la composición de piensos y purines. Las granjas del Mediterráneo tenían mayor pH (P<0,001) y concentración de cenizas (P =0,02) en el purín que las del Centro. El tipo de granja también afectó al contenido de extracto etéreo (EE) del purín (P =0,02), observando los valores más elevados en las instalaciones de animales jóvenes. Los resultados sugieren un efecto tampón de la fibra de la dieta en el pH del purín y una relación directa (P<0,05) con el contenido de fibra fecal. El contenido de proteína del pienso no afectó al contenido de nitrógeno del purín, pero disminuyó (P=0,003) la concentración de sólidos totales (ST) y de sólidos volátiles (SV). Se obtuvieron modelos de predicción de la emisión potencial de NH3 (R2=0,89) y CH4 (R2=0,61) partir de la composición del purín. Los espectros NIRS mostraron una buena precisión para la estimación de la mayor parte de los constituyentes, con coeficientes de determinación de validación cruzada (R2cv) superiores a 0,90, así como para la predicción del potencial de emisiones de NH3 y CH4 (R2cv=0,84 y 0,68, respectivamente). El experimento 2 fue realizado para investigar los efectos del nivel de inclusión de dos fuentes de sub-productos fibrosos: pulpa de naranja (PN) y pulpa de algarroba (PA), en dietas iso-fibrosas de cerdos de cebo, sobre la composición del purín y las emisiones potenciales de NH3 y CH4. Treinta cerdos (85,4±12,3 kg) fueron alimentados con cinco dietas iso-nutritivas: control comercial trigo/cebada (C) y cuatro dietas experimentales incluyendo las dos fuentes de sub-productos a dos niveles (75 y 150 g/kg) en una estructura 2 × 2 factorial. Después de 14 días de periodo de adaptación, heces y orina fueron recogidas separadamente durante 7 días para medir la digestibilidad de los nutrientes y el nitrógeno (N) excretado (6 réplicas por dieta) en cerdos alojados individualmente en jaulas metabólicas. Las emisiones de NH3 y CH4 fueron medidas después de la recogida de los purínes durante 11 y 100 días respectivamente. La fuente y el nivel de subproductos fibrosos afectó a la eficiencia digestiva de diferentes formas, ya que los coeficientes de digestibilidad total aparente (CDTA) para la materia seca (MS), materia orgánica (MO), fracciones fibrosas y energía bruta (EB) aumentaron con la PN pero disminuyeron con la inclusión de PA (P<0,05). El CDTA de proteína bruta (PB) disminuyó con la inclusión de las dos fuentes de fibra, siendo más bajo al mayor nivel de inclusión. La concentración fecal de fracciones fibrosas aumentó (P<0,05) con el nivel de inclusión de PA pero disminuyó con el de PN (P<0,01). El nivel más alto de las dos fuentes de fibra en el pienso aumentó (P<0,02) el contenido de PB fecal pero disminuyó el contenido de N de la orina (de 205 para 168 g/kg MS, P<0,05) en todas las dietas suplementadas comparadas con la dieta C. Adicionalmente, las proporciones de nitrógeno indigerido, nitrógeno soluble en agua, nitrógeno bacteriano y endógeno excretado en heces no fueron afectados por los tratamientos. Las características iniciales del purín no difirieron entre las diferentes fuentes y niveles de fibra, excepto para el pH que disminuyó con la inclusión de altos niveles de sub-productos. La emisión de NH3 por kg de purín fue más baja en todas las dietas suplementadas con fibras que en la dieta C (2,44 vs.1,81g de promedio, P<0,05). Además, purines de dietas suplementadas con alto nivel de sub-productos tendieron (P<0,06) a emitir menos NH3 por kg de nitrógeno total y mostraron un potencial más bajo para emitir CH4, independientemente de la fuente de fibra. El experimento 3 investigó los efectos de la fuente de proteína en dietas prácticas. Tres piensos experimentales fueron diseñados para sustituir una mescla de harina y cascarilla de soja (SOJ) por harina de girasol (GIR) o por DDGS del trigo (DDGST). La proporción de otros ingredientes fue modificada para mantener los contenidos de nutrientes similares a través de las dietas. El cambio en la fuente de proteína dio lugar a diferencias en el contenido de fibra neutro detergente ligada a proteína bruta (FNDPB), fibra soluble (FS) y lignina ácido detergente (LAD) en la dieta. Veinticuatro cerdos (ocho por dieta), con 52,3 o 60,8 kg en la primera y segunda tanda respectivamente, fueron alojados individualmente en jaulas metabólicas. Durante un periodo de 7 días fue determinado el balance de MS, el CDTA de los nutrientes y la composición de heces y orina. Se realizó el mismo procedimiento del experimento 2 para medir las emisiones de NH3 y CH4 de los purines de cada animal. Ni la ingestión de MS ni el CDTA de la MS o de la energía fueron diferentes entre las dietas experimentales, pero el tipo de pienso afectó (P<0.001) la digestibilidad de la PB, que fue mayor para GIR (0,846) que para SOJ (0,775), mientras que la dieta DDGST mostró un valor intermedio (0,794). La concentración fecal de PB fue por tanto influenciada (P<0,001) por el tratamiento, observándose la menor concentración de PB en la dieta GIR y la mayor en la dieta SOJ. La proporción de N excretado en orina o heces disminuyó de 1,63 en la dieta GIR hasta 0,650 en la dieta SOJ, como consecuencia de perdidas más bajas en orina y más altas en heces, con todas las fracciones de nitrógeno fecales creciendo en paralelo a la excreción total. Este resultado fue paralelo a una disminución de la emisión potencial de NH3 (g/kg purín) en la dieta SOJ con respecto a la dieta GIR (desde 1,82 a 1,12, P<0,05), dando valores intermedios (1,58) para los purines de la dieta DDGST. Por otro lado, el CDTA de la FS y de la fibra neutro detergente (FND) fueron afectados (P<0,001 y 0,002, respectivamente) por el tipo de dieta, siendo más bajas en la dieta GIR que en la dieta SOJ; además, se observó un contenido más alto de FND (491 vs. 361g/kg) en la MS fecal para la dieta GIR que en la dieta SOJ, presentando la dieta DDGST valores intermedios. El grado de lignificación de la FND (FAD/FND x 100) de las heces disminuyó en el orden GIR>DDGST>SOJ (desde 0,171 hasta 0,109 y 0,086, respectivamente) en paralelo a la disminución del potencial de emisión de CH4 por g de SV del purín (desde 301 a 269 y 256 mL, respectivamente). Todos los purines obtenidos en estos tres experimentos y Antezana et al. (2015) fueron usados para desarrollar nuevas calibraciones con la tecnología NIRS, para predecir la composición del purín y el potencial de las emisiones de gases. Se observó una buena precisión (R2cv superior a 0,92) de las calibraciones cuando muestras de los ensayos controlados (2, 3 y Antezana et al., 2015) fueron añadidas, aumentando el rango de variación. Una menor exactitud fue observada para TAN y emisiones de NH3 y CH4, lo que podría explicarse por una menor homogeneidad en la distribución de las muestras cuando se amplía el rango de variación del estudio. ABSTRACT This PhD thesis was developed to study the emissions of ammonia (NH3) and methane (CH4) from pig slurry and the effects caused by changes on diet formulation. For these proposes three studies were conducted. Experiment 1 aimed to analyse several factors of variation of slurry composition and to establish prediction equations for potential CH4 and NH3 emissions. Seventy-nine feed and slurry samples were collected at two seasons (summer and winter) from commercial pig farms sited at two Spanish regions (Centre and Mediterranean). Nursery, growing-fattening, gestating and lactating facilities were sampled. Feed and slurry composition were determined, and potential CH4 and NH3 emissions measured. Feed nutrient contents were used as covariates in the analysis. Near infrared reflectance spectroscopy (NIRS) was evaluated as a predicting tool for slurry composition and potential gaseous emissions. A wide variability was found both in feed and slurry composition. Mediterranean farms had a higher pH (P<0.001) and ash (P=0.02) concentration than those located at the centre of Spain. Also, type of farm affected ether extract (EE) content of the slurry (P=0.02), with highest values obtained for the youngest animal facilities. Results suggested a buffer effect of dietary fibre on slurry pH and a direct relationship (P<0.05) with fibre constituents of manure. Dietary protein content did not affect slurry nitrogen content (N) but decreased (P=0.003) in total solid (TS) and volatile solids (VS) concentration. Prediction models of potential NH3 emissions (R2=0.89) and biochemical CH4 potential (B0) (R2=0.61) were obtained from slurry composition. Predictions from NIRS showed a high accuracy for most slurry constituents with coefficient of determination of cross validation (R2cv) above 0.90 and a similar accuracy of prediction of potential NH3 and CH4 emissions (R2cv=0.84 and 0.68, respectively) thus models based on slurry composition from commercial farms. Experiment 2 was conducted to investigate the effects of increasing the level of two sources of fibrous by-products, orange pulp (OP) and carob meal (CM), in iso-fibrous diets for growing-finishing pig, slurry composition and potential NH3 and CH4 emissions. Thirty pigs (85.4±12.3 kg) were fed five iso-nutritive diets: a commercial control wheat/barley (C) and four experimental diets including two sources of fibrous by-products OP and CM and two dietary levels (75 and 150 g/kg) in a 2 × 2 factorial arrangement. After a 14-day adaptation period, faeces and urine were collected separately for 7 days to measure nutrient digestibility and the excretory patterns of N from pigs (6 replicates per diet) housed individually in metabolic pens. For each animal, the derived NH3 and CH4 emissions were measured in samples of slurry over an 11 and 100-day storage periods, respectively. Source and level of the fibrous by-products affected digestion efficiency in a different way as the coefficients of total tract apparent digestibility (CTTAD) for dry matter (DM), organic matter (OM), fibre fractions and gross energy (GE) increased with OP but decreased with CM (P<0.05). Crude protein CTTAD decreased with the inclusion of both sources of fibre, being lower at the highest dietary level. Faecal concentration of fibre fractions increased (P<0.05) with the level of inclusion of CM but decreased with that of OP (P<0.01). High dietary level for both sources of fibre increased (P<0.02) CP faecal content but urine N content decreased (from 205 to 168 g/kg DM, P<0.05) in all the fibre-supplemented compared to C diet. Additionally, the proportions of undigested dietary, water soluble, and bacterial and endogenous debris of faecal N excretion were not affected by treatments. The initial slurry characteristics did not differ among different fibre sources and dietary levels, except pH, which decreased at the highest by-product inclusion levels. Ammonia emission per kg of slurry was lower in all the fibre-supplemented diets than in C diet (2.44 vs. 1.81g as average, P<0.05). Additionally, slurries from the highest dietary level of by-products tended (P<0.06) to emit less NH3 per kg of initial total Kjeldahl nitrogen (TKN) and showed a lower biochemical CH4 potential , independently of the fibre source. Experiment 3 investigated the effects of protein source in practical diets. Three experimental feeds were designed to substitute a mixture of soybean meal and soybean hulls (SB diet) with sunflower meal (SFM) or wheat DDGS (WDDGS). The proportion of other ingredients was also modified in order to maintain similar nutrient contents across diets. Changes in protein source led to differences in dietary content of neutral detergent insoluble crude protein (NDICP), soluble fibre (SF) and acid detergent lignin (ADL). Twenty-four pigs (eight per diet), weighing 52.3 or 60.8 kg at the first and second batch respectively, were housed individually in metabolic pens to determine during a 7-day period DM balance, CTTAD of nutrients, and faecal and urine composition. Representative slurry samples from each animal were used to measure NH3 and CH4 emissions over an 11 and or 100-day storage period, respectively. Neither DM intake, nor DM or energy CTTAD differed among experimental diets, but type of feed affected (P<0.001) CP digestibility, which was highest for SFM (0.846) than for SB (0.775) diet, with WDDGS-based diet giving an intermediate value (0.794). Faecal DM composition was influenced (P<0.001) accordingly, with the lowest CP concentration found for diet SFM and the highest for SB. The ratio of N excreted in urine or faeces decreased from SFM (1.63) to SB diet (0.650), as a consequence of both lower urine and higher faecal losses, with all the faecal N fractions increasing in parallel to total excretion. This result was parallel to a decrease of potential NH3 emission (g/kg slurry) in diet SB with respect to diet SFM (from 1.82 to 1.12, P<0.05), giving slurry from WDDGS-based diet an intermediate value (1.58). Otherwise, SF and insoluble neutral detergent fibre (NDF) CTTAD were affected (P<0.001 and P=0.002, respectively) by type of diet, being lower for SFM than in SB-diet; besides, a higher content of NDF (491 vs. 361 g/kg) in faecal DM was observed for SFM with respect to SB based diet, with WDDGS diet being intermediate. Degree of lignification of NDF (ADL/NDF x 100) of faeces decreased in the order SFM>WDDGS>SB (from 0.171 to 0.109 and 0.086, respectively) in parallel to a decrease of biochemical CH4 potential per g of VS of slurry (from 301 to 269 and 256 ml, respectively). All slurry samples obtained from these three experiments and Antezana et al. (2015) were used to develop new calibrations with NIRS technology, to predict the slurry composition and potential gaseous emissions of samples with greater variability in comparison to experiment 1. Better accuracy (R2cv above 0.92) was observed for calibrations when samples from controlled trials experiments (2, 3 and Antezana et al., 2015) were included, increasing the range of variation. A lower accuracy was observed for TAN, NH3 and CH4 gaseous emissions, which might be explained by the less homogeneous distribution with a wider range of data.
Resumo:
Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.
Resumo:
Esta tesis recoje un trabajo experimental centrado en profundizar sobre el conocimiento de los bloques detectores monolíticos como alternativa a los detectores segmentados para tomografía por emisión de positrones (Positron Emission Tomography, PET). El trabajo llevado a cabo incluye el desarrollo, la caracterización, la puesta a punto y la evaluación de prototipos demostradores PET utilizando bloques monolíticos de ortosilicato de lutecio ytrio dopado con cerio (Cerium-Doped Lutetium Yttrium Orthosilicate, LYSO:Ce) usando sensores compatibles con altos campos magnéticos, tanto fotodiodos de avalancha (Avalanche Photodiodes, APDs) como fotomultiplicadores de silicio (Silicon Photomultipliers, SiPMs). Los prototipos implementados con APDs se construyeron para estudiar la viabilidad de un prototipo PET de alta sensibilidad previamente simulado, denominado BrainPET. En esta memoria se describe y caracteriza la electrónica frontal integrada utilizada en estos prototipos junto con la electrónica de lectura desarrollada específicamente para los mismos. Se muestran los montajes experimentales para la obtención de las imágenes tomográficas PET y para el entrenamiento de los algoritmos de red neuronal utilizados para la estimación de las posiciones de incidencia de los fotones γ sobre la superficie de los bloques monolíticos. Con el prototipo BrainPET se obtuvieron resultados satisfactorios de resolución energética (13 % FWHM), precisión espacial de los bloques monolíticos (~ 2 mm FWHM) y resolución espacial de la imagen PET de 1,5 - 1,7 mm FWHM. Además se demostró una capacidad resolutiva en la imagen PET de ~ 2 mm al adquirir simultáneamente imágenes de fuentes radiactivas separadas a distancias conocidas. Sin embargo, con este prototipo se detectaron también dos limitaciones importantes. En primer lugar, se constató una falta de flexibilidad a la hora de trabajar con un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) cuyo diseño electrónico no era propio sino comercial, unido al elevado coste que requieren las modificaciones del diseño de un ASIC con tales características. Por otra parte, la caracterización final de la electrónica integrada del BrainPET mostró una resolución temporal con amplio margen de mejora (~ 13 ns FWHM). Tomando en cuenta estas limitaciones obtenidas con los prototipos BrainPET, junto con la evolución tecnológica hacia matrices de SiPM, el conocimiento adquirido con los bloques monolíticos se trasladó a la nueva tecnología de sensores disponible, los SiPMs. A su vez se inició una nueva estrategia para la electrónica frontal, con el ASIC FlexToT, un ASIC de diseño propio basado en un esquema de medida del tiempo sobre umbral (Time over Threshold, ToT), en donde la duración del pulso de salida es proporcional a la energía depositada. Una de las características más interesantes de este esquema es la posibilidad de manejar directamente señales de pulsos digitales, en lugar de procesar la amplitud de las señales analógicas. Con esta arquitectura electrónica se sustituyen los conversores analógicos digitales (Analog to Digital Converter, ADCs) por conversores de tiempo digitales (Time to Digital Converter, TDCs), pudiendo implementar éstos de forma sencilla en matrices de puertas programmable ‘in situ’ (Field Programmable Gate Array, FPGA), reduciendo con ello el consumo y la complejidad del diseño. Se construyó un nuevo prototipo demostrador FlexToT para validar dicho ASIC para bloques monolíticos o segmentados. Se ha llevado a cabo el diseño y caracterización de la electrónica frontal necesaria para la lectura del ASIC FlexToT, evaluando su linealidad y rango dinámico, el comportamiento frente a ruido así como la no linealidad diferencial obtenida con los TDCs implementados en la FPGA. Además, la electrónica presentada en este trabajo es capaz de trabajar con altas tasas de actividad y de discriminar diferentes centelleadores para aplicaciones phoswich. El ASIC FlexToT proporciona una excelente resolución temporal en coincidencia para los eventos correspondientes con el fotopico de 511 keV (128 ps FWHM), solventando las limitaciones de resolución temporal del prototipo BrainPET. Por otra parte, la resolución energética con bloques monolíticos leidos por ASICs FlexToT proporciona una resolución energética de 15,4 % FWHM a 511 keV. Finalmente, se obtuvieron buenos resultados en la calidad de la imagen PET y en la capacidad resolutiva del demostrador FlexToT, proporcionando resoluciones espaciales en el centro del FoV en torno a 1,4 mm FWHM. ABSTRACT This thesis is focused on the development of experimental activities used to deepen the knowledge of monolithic detector blocks as an alternative to segmented detectors for Positron Emission Tomography (PET). It includes the development, characterization, setting up, running and evaluation of PET demonstrator prototypes with monolithic detector blocks of Cerium-doped Lutetium Yttrium Orthosilicate (LYSO:Ce) using magnetically compatible sensors such as Avalanche Photodiodes (APDs) and Silicon Photomultipliers (SiPMs). The prototypes implemented with APDs were constructed to validate the viability of a high-sensitivity PET prototype that had previously been simulated, denominated BrainPET. This work describes and characterizes the integrated front-end electronics used in these prototypes, as well as the electronic readout system developed especially for them. It shows the experimental set-ups to obtain the tomographic PET images and to train neural networks algorithms used for position estimation of photons impinging on the surface of monolithic blocks. Using the BrainPET prototype, satisfactory energy resolution (13 % FWHM), spatial precision of monolithic blocks (~ 2 mm FWHM) and spatial resolution of the PET image (1.5 – 1.7 mm FWHM) in the center of the Field of View (FoV) were obtained. Moreover, we proved the imaging capabilities of this demonstrator with extended sources, considering the acquisition of two simultaneous sources of 1 mm diameter placed at known distances. However, some important limitations were also detected with the BrainPET prototype. In the first place, it was confirmed that there was a lack of flexibility working with an Application Specific Integrated Circuit (ASIC) whose electronic design was not own but commercial, along with the high cost required to modify an ASIC design with such features. Furthermore, the final characterization of the BrainPET ASIC showed a timing resolution with room for improvement (~ 13 ns FWHM). Taking into consideration the limitations obtained with the BrainPET prototype, along with the technological evolution in magnetically compatible devices, the knowledge acquired with the monolithic blocks were transferred to the new technology available, the SiPMs. Moreover, we opted for a new strategy in the front-end electronics, the FlexToT ASIC, an own design ASIC based on a Time over Threshold (ToT) scheme. One of the most interesting features underlying a ToT architecture is the encoding of the analog input signal amplitude information into the duration of the output signals, delivering directly digital pulses. The electronic architecture helps substitute the Analog to Digital Converters (ADCs) for Time to Digital Converters (TDCs), and they are easily implemented in Field Programmable Gate Arrays (FPGA), reducing the consumption and the complexity of the design. A new prototype demonstrator based on SiPMs was implemented to validate the FlexToT ASIC for monolithic or segmented blocks. The design and characterization of the necessary front-end electronic to read-out the signals from the ASIC was carried out by evaluating its linearity and dynamic range, its performance with an external noise signal, as well as the differential nonlinearity obtained with the TDCs implemented in the FPGA. Furthermore, the electronic presented in this work is capable of working at high count rates and discriminates different phoswich scintillators. The FlexToT ASIC provides an excellent coincidence time resolution for events that correspond to 511 keV photopeak (128 ps FWHM), resolving the limitations of the poor timing resolution of the BrainPET prototype. Furthermore, the energy resolution with monolithic blocks read by FlexToT ASICs provides an energy resolution of 15.4 % FWHM at 511 keV. Finally, good results were obtained in the quality of the PET image and the resolving power of the FlexToT demonstrator, providing spatial resolutions in the centre of the FoV at about 1.4 mm FWHM.
Resumo:
La contaminación de suelos con hidrocarburos de petróleo en México es un problema que se ha vuelto muy común en nuestros días, debido principalmente a derrames, así como a las actividades propias de la industria petrolera. Algunos suelos contaminados, principalmente en el sureste de México, contienen concentraciones de hidrocarburos hasta de 450,000 mg/kg. Por dichas razones, una de las preocupaciones de las autoridades ambientales es el desarrollo de tecnologías eficientes y económicamente factibles que permitan la eliminación de este tipo de contaminantes. El saneamiento del sitio se puede lograr a través de diversos procedimientos, como son la aplicación de métodos físicos, químicos y biológicos (o combinaciones de ellas). La elección de un método depende de la naturaleza del contaminante, su estado físico, concentración, tipo de suelo, espacio físico disponible, tiempo destinado para su tratamiento, así como de los recursos económicos disponibles. Previa a la aplicación de la tecnología es necesario la realización de un diagnóstico de la contaminación del suelo, con el fin de conocer el tipo, concentración y distribución de los contaminantes presentes, así como el volumen de suelo a tratar, las condiciones climáticas de la zona, y características físicas del lugar (vías de acceso y servicios, entre otros). En la presente tesis, el empleo de surfactantes, se ha propuesto como una técnica para incrementar la movilidad de contaminantes orgánicos hidrofóbicos (HOCs) como hidrocarburos totales del petróleo (HTPs), bifenilos policlorados (PCBs), Benceno, Tolueno, Xilenos, explosivos, clorofenoles, pesticidas, entre otros, y así facilitar su degradación. Los surfactantes debido a que reducen la tensión superficial del agua, son moléculas formadas por grupos polares hidrofílicos y largas cadenas carbonadas hidrofóbicas. Sus grupos polares forman puentes hidrógeno con las moléculas de agua, mientras que las cadenas carbonadas se asocian a los hidrocarburos debido a interacciones hidrofóbicas que estos presentan. En soluciones acuosas, los surfactantes forman estructuras esféricas organizadas llamadas micelas. La solubilización de los contaminantes se lleva a cabo solamente cuando se forma la fase micelar, la cual se obtiene cuando la concentración del surfactante es superior a la concentración micelar crítica (CMC), es decir, arriba de la concentración de la cual el monómero se comienza a auto-agregar. La eficiencia de desorción de diésel por un surfactante depende de su naturaleza, de la dosis empleada, de la hidrofobicidad del contaminante, de la interacción surfactante-suelo y del tiempo de contacto surfactante-suelo. Sin embargo, la mejor eficiencia de desorción no está siempre relacionada con la mejor eficiencia de movilidad o solubilidad, debido principalmente a que el empleo de una alta concentración de surfactante puede inhibir la movilización. De acuerdo con información proporcionada por la Procuraduría Federal de Protección al Ambiente (PROFEPA), a la fecha no se ha llevado a cabo en México ninguna restauración de sitios específicamente contaminados con diésel, la técnica de lavado de suelos. Por lo anterior existe la necesidad de emplear la técnica de lavado de suelos ex situ. Específicamente en el suelo extraído de la ex refinería 18 de marzo ubicada en el Distrito Federal México y empleando una solución de surfactantes con agua desionizada, la cual consiste ponerlos en contacto con el suelo contaminado con diésel por medio de columnas de lavado cilíndricas, para lograr la remoción del contaminante. Se emplearon como surfactantes el lauril sulfato de sodio, lauril éter sulfato de sodio y Glucopon AV-100 a diferentes concentraciones de 0.5 a 4.0 [g/L], lográndose obtener una eficiencia del 80 % con este último surfactante. El lavado de suelos contaminados con diésel empleado surfactantes, es una tecnología que requiere que se profundice en el estudio de algunas variables como son el tipo de surfactante, concentración, tiempo de lavado, fenómenos de difusión, desorción, propiedades termodinámicas, entre otros. Los cuales determinarán el éxito o fracaso de la técnica empleada. Nowadays, soil pollution with oil in Mexico is a very common issue due mainly to both oil spill and oil activities. For example, mainly in the southeast area of Mexico, polluted soil contains high concentrations of hydrocarbons, up to 450,000 mg/kg. For these reasons, enviromental authorities have the concern in developing economically feasible and efficient technology that allow the elimination of these type of contaminants. The sanitation in sites can be achieved through several procedures such as physical, chemical and biological methods (or a combination among them). The choice of a method depends on the nature and physical state of the contaminant, the concentration, type of soil, physical space available, time consumption and financial resources. Before any technological application, a diagnostic of the polluted soil is necessary in order to know the type, concentration and distribution of contaminants as well as the soil volume, climatic conditions and physical features of the place (access routes and services, among others). In this thesis, surfactants has been proposed as a technique to increase the mobility of hydrophobic-organic contaminants (HOCs), e.g. total hydrocarbons of petroleum, polychlorinated biphenyls, benzene, toluene, xylenes, explosives, chlorophenols, pesticides, among others, and, hence, to facilitate degradation. Since surfactants reduce the water surface tension, they are molecules comprised of hydrophilic polar groups and long-hydrophobic carbon chains. Surfactant’s polar groups form hydrogen bonding with water molecules while carbon chains, i.e. hydrocarbon chains, have hydrophobic interactios. In aqueous solutions, surfactants form self-organised spherical structures called micelles. The solubilisation of contaminants is carried out only when the micellar phase is formed. This is obtained when the surfactant concentration is higher than the crítical micelle concentration (CMC), i.e. above the concentration where the surfactant monomer begins to self-aggregate. The diesel efficiency desorption by surfactants depends on their nature, the dose use, the contaminant hydrophobicity, the surfactant-soil interaction and the contact time with surfactant soil. However, the best desorption is not always related with the best either mobility or solubility efficiency since high concentration of surfactant can inhibit mobilisation. According to information of the Federal Bureau of Environmental Protection (PROFEPA), up today, there is not any restauration of diesel-polluted sites using the washing-soil technique. Due to the above, there exist the necessity of employing the waching-soil technique ex situ. More specifically, a sample soil from the oil-refinery of “18 de marzo” in Mexico city was extracted and a surfactant solution with deionised water was put in contact with the diesel contaminated soil by means of cylindrical waching columns in order to remove the contaminant. The surfactants employed in this work were sodium lauryl sulfate, sodium lauryl ether sulfate and Glucopon AV-100 at different concentrations of 0.5 to 4 [g/L], obtaining a efficiency of 80 % with this last surfactant. The washing of diesel-polluted soil using surfactants is a technology which requires a deeper study of some variables such as the type of surfactant, concentration, washing time, difusión phenomena, desorption, thermodynamic properties, among others. These parameters determine the succes or failure of the employed technique.
Resumo:
Para el análisis de la respuesta estructural, tradicionalmente se ha partido de la suposición de que los nudos son totalmente rígidos o articulados. Este criterio facilita en gran medida los cálculos, pero no deja de ser una idealización del comportamiento real de las uniones. Como es lógico, entre los nudos totalmente rígidos y los nudos articulados existe una gama infinita de valores de rigidez que podrían ser adoptados. A las uniones que presentan un valor distinto de los canónicos se les denomina en sentido general uniones semirrígidas. La consideración de esta rigidez intermedia complica considerablemente los cálculos estructurales, no obstante provoca cambios en el reparto de esfuerzos dentro de la estructura, así como en la configuración de las propias uniones, que en ciertas circunstancias pueden suponer una ventaja económica. Del planteamiento expuesto en el párrafo anterior, surgen dos cuestiones que serán el germen de la tesis. Estas son: ¿Qué ocurre si se aplica el concepto de uniones semirrígidas a las naves industriales? ¿Existen unos valores determinados de rigidez en sus nudos con los que se logra optimizar la estructura? Así, surge el objetivo principal de la tesis, que no es otro que conocer la influencia de la rigidez de los nudos en los costes de los pórticos a dos aguas de estructura metálica utilizados típicamente en edificios de uso agroindustrial. Para alcanzar el objetivo propuesto, se plantea una metodología de trabajo que básicamente consiste en el estudio de una muestra representativa de pórticos sometidos a tres estados de carga: bajo, medio y alto. Su rango de luces abarca desde los 8 a los 20 m y el de la altura de pilares desde los 3,5 a los 10 m. Además, se considera que sus uniones pueden adoptar valores intermedios de rigidez. De la combinatoria de las diferentes configuraciones posibles se obtienen 46.656 casos que serán objeto de estudio. Debido al fin economicista del trabajo, se ha prestado especial atención a la obtención de los costes de ejecución de las diferentes partidas que componen la estructura, incluidas las correspondientes a las uniones. Para acometer los cálculos estructurales ha sido imprescindible contar con un soporte informático, tanto existente como de creación ex profeso, que permitiese su automatización en un contexto de optimización. Los resultados del estudio consisten básicamente en una cantidad importante de datos que para su interpretación se hace imprescindible tratarlos previamente. Este tratamiento se fundamenta en su ordenación sistemática, en la aplicación de técnicas estadísticas y en la representación gráfica. Con esto se obtiene un catálogo de gráficos en los que se representa el coste total de la estructura según los diferentes valores de rigidez de sus nudos, unas matrices resumen de resultados y unos modelos matemáticos que representan la función coste total - rigideces de nudos. Como conclusiones se puede destacar: por un lado que los costes totales de los pórticos estudiados son mínimos cuando los valores de rigidez de sus uniones son bajos, concretamente de 5•10³ a 10•10³ kN•m/rad; y por otro que la utilización en estas estructuras de uniones semirrígidas con una combinación idónea de sus rigideces, supone una ventaja económica media del 18% con respecto a las dos tipologías que normalmente se usan en este tipo de edificaciones como son los pórticos biempotrados y los biarticulados. ABSTRACT Analyzing for structural response, traditionally it started from the assumption that joints are fully rigid or pinned. This criterion makes the design significantly easier, but it is also an idealization of real joint behaviour. As is to be expected, there is an almost endless range of stiffnes value between fully rigid and pinned joints, wich could be adopted. Joints with a value other than traditional are referred to generally as semi-rigid joints. If middle stiffness is considered, the structural design becomes much more complicated, however, it causes changes in the distribution of frame stresses, as well as on joints configuration, that under certain circumstances they may suppose an economic advantage. Two questions arise from the approach outlined in the preceding subparagraph, wich are the seeds of the doctoral thesis. These are: what happens when the concept of semirigid joints is applied to industrial buildings? There are certain stiffness values in their joints with which optimization of frame is achieved? This way, the main objective of the thesis arise, which is to know the influence of stiffness of joints in the cost of the steel frames with gabled roof, that they are typically used in industrial buildings. In order to achieve the proposed goal, a work methodology is proposed, which consists in essence in a study of a representative sample of frames under three load conditions: low, middle and high. Their range of spans comprises from 8 to 20 m and range of the height of columns cover from 3,5 to 10 m. Furthermore, it is considered that their joints can adopt intermediate values of stiffness. The result of the combination of different configurations options is 46.656 cases, which will be subject of study. Due to the economic aim of this work, a particular focus has been devoted for obtaining the execution cost of the different budget items that make up the structure, including those relating to joints. In order to do the structural calculations, count with a computing support has been indispensable, existing and created expressly for this purpose, which would allows its automation in a optimization context. The results of the study basically consist in a important amount of data, whose previous processing is necesary. This process is based on his systematic arrangement, in implementation of statistical techniques and in graphical representation. This give a catalogue of graphics, which depicts the whole cost of structure according to the different stiffness of its joints, a matrixes with the summary of results and a mathematical models which represent the function whole cost - stiffness of the joints. The most remarkable conclusions are: whole costs of the frames studied are minimum when the stiffness values of their joints are low, specifically 5•10³ a 10•10³ kN•m/rad; and the use of structures with semi-rigid joints and a suitable combination of their stiffness implyes an average economic advantage of 18% over other two typologies which are used typically in this kind of buildings; these are the rigid and bi-articulated frames.
Resumo:
El principal objetivo de esta tesis fue incrementar la eficiencia proteica en las dietas de rumiantes mediante el uso de proteínas protegidas (harina de girasol y guisante de primavera), así como mejorar la predicción de los aportes de proteína microbiana. Una partida de harinas comerciales de girasol (HG) y de guisante de primavera (GP) fueron tratadas con soluciones 4 N de ácido málico (268,2 g/L) o ácido ortofosfórico (130,6 g/L). Para cada harina, ácido y día de tratamiento, dos fracciones de 12,5 kg fueron pulverizadas sucesivamente en una hormigonera con la solución de ácido correspondiente mediante un pulverizador de campo. Las dos fracciones fueron mezcladas posteriormente y se dejaron reposar durante 1 h a temperatura ambiente. La mezcla fue luego secada en una estufa de aire forzado a 120 ºC durante 1 h. La estufa fue apagada inmediatamente después y el material tratado se mantuvo dentro de ésta hasta la mañana siguiente. El material fue removido durante el proceso de secado cada 30 min durante las primeras 2 h y cada 60 min durante las 5 h posteriores. Este proceso se repitió hasta conseguir las cantidades de harinas tratadas necesarias en los distintos ensayos. En el primer experimento (capitulo 3) se llevaron a cabo estudios de digestión ruminal e intestinal para evaluar los efectos de la aplicación de las soluciones ácidas indicadas y calor a fin de proteger las proteínas de HG y GP contra la degradación ruminal. Estos estudios se realizaron con tres corderos canulados en el rumen y en el duodeno. El estudio de digestión ruminal fue realizado en tres periodos experimentales en los que los corderos fueron alimentados sucesivamente con tres dietas isoproteicas que incluían HG y GP, sin tratar o tratadas con ácidos málico u ortofosfórico. Cada periodo experimental de 21 días incluyó sucesivamente: 10 días de adaptación a las dietas, un estudio del tránsito ruminal de las partículas de HG y GP (días 11 a 14), y la incubación de las muestras de ambos alimentos en bolsas de nailon (días 15–21). Las harinas incubadas en cada periodo experimental correspondieron a las que fueron incluidas en las dietas. Las bacterias ruminales fueron marcadas desde el día 11 hasta el día 21 del periodo experimental mediante infusión intra-ruminal continua con una fuente de 15N. Tras finalizar las incubaciones in situ el día 21 el rumen fue vaciado en cada periodo para aislar las bacterias asociadas a la fase sólida y liquida del rumen. El estudio de digestión intestinal fue realizado veinte días después del final del estudio ruminal a fin de eliminar el enriquecimiento en 15N de la digesta. En este estudio se incubaron muestras compuestas obtenidas mediante la combinación de los diferentes residuos no degradados en el rumen de forma que fuesen representativas de la composición química de la fracción no degradada en el rumen (RU). En esta fase los corderos fueron alimentados con la dieta sin tratar para determinar la digestibilidad de las harinas tanto tratadas como sin tratar mediante la técnica de las bolsas móviles. Además, las proteínas contenidas en las harinas tratadas y sin tratar, así como en las muestras correspondientes a los residuos a 0 h, las muestras compuestas anteriormente indicadas y las muestras no digeridas intestinalmente fueron extraídas y sometidas a electroforesis para determinar el sitio de digestión de las diferentes fracciones proteicas. Las estimaciones de la RU y la digestibilidad intestinal de la materia seca, la materia orgánica (solamente para RU), la proteína bruta (PB) y el almidón (solamente en GP) fueron obtenidos considerando la contaminación microbiana y las tasas de conminución y salida de partículas. Las estimaciones de RU y de la digestibilidad intestinal disminuyeron en todas las fracciones evaluadas de ambos alimentos al corregir por la contaminación microbiana acaecida en el rumen. Todas las estimaciones de RU aumentaron con los tratamientos de protección, incrementándose también la digestibilidad intestinal de la materia seca en la HG. Los bajos valores de la digestibilidad de la proteína de GP tratado y sin tratar sugieren la presencia de algún factor antitripsico no termolábil es esta harina. Los tratamientos de protección incrementaron consistentemente la fracción de materia seca y PB digerida intestinalmente en los dos alimentos, mientras que la fracción de almidón en la muestra de GP solamente aumentó numéricamente (60,5% de media). Sin embargo, los tratamientos también redujeron la fermentación de la materia orgánica, lo cual podría disminuir la síntesis de proteína microbiana. Los estudios de electroforesis muestran la práctica desaparición de la albumina por la degradación ruminal en ambos alimentos, así como que los cambios en otras proteínas de la muestra RU fueron más pronunciados en GP que en HG. La composición de las bacterias asociadas con las fases de digesta ruminal sólida (BAS) y líquida (BAL) fue estudiada para revisar la precisión de un sistema de predicción previo que determinaba la infravaloración del aporte de nutrientes correspondiente a las BAS cuando de usa 15N como marcador y las BAL como referencia microbiana (capitulo 4). Al comparar con BAS, BAL mostraron menores contenidos en materia orgánica, polisacáridos de glucosa y lípidos totales y un mayor contenido en PB, así como un mayor enriquecimiento en 15N. Los datos obtenidos en el estudio actual se ajustan bien a la ecuación previa que predice el enriquecimiento en 15N de las BAS a partir del mismo valor en BAL. Esta nueva ecuación permite establecer que se produce una infravaloración de un 22% en el aporte de PB al animal a partir de las BAS sintetizadas si las BAL son usadas como muestras de referencia. Una segunda relación calculada utilizando los valores medios por dieta expuestos en numerosos trabajos encontrados en la literatura confirma la magnitud de este error. Esta infravaloración asociada al uso de BAL como referencia fue mayor para el aporte de glucosa (43,1%) y todavía mayor para el aporte de lípidos (59,9%), como consecuencia de los menores contenidos de ambas fracciones en BAL frente a SAB. Estos errores deberían ser considerados para obtener mayor precisión en la estimación del aporte de nutrientes microbianos y mejorar la nutrición de los rumiantes. En el experimento 2 se realizó un estudio de producción (capitulo 5) para evaluar los efectos del tratamiento de las harinas HG y GP con soluciones de ácido málico o ácido ortofosfórico sobre el crecimiento, el consumo de concentrado y el rendimiento y engrasamiento de las canales de corderos de engorde. Noventa corderos machos de cruce entrefino procedentes de tres granjas comerciales (peso inicial medio = 14,6, 15,3 y 13,3 kg, respectivamente) fueron asignados aleatoriamente a cinco dietas con diferentes niveles de proteína y diferentes tratamientos con ácidos y engordados hasta un peso medio al sacrificio de 25 kg. Las fuentes de proteína en el pienso control (C; PB=18,0%) fueron harina de soja, HG y GP sin tratar. En tres de los piensos experimentales, las harinas tratadas con ácido ortofosfórico sustituyeron a las de HG y GP sin tratar (Control Ortofosfórico, PC; PB=18,0% sobre materia seca), sustituyéndose, además, la harina de soja parcialmente (Sustitución Media Ortofosfórico, MSP; PB=16,7%) o totalmente (Sustitución Total Ortofosfórico, TSP; PB=15,6%). Finalmente, en uno de los piensos el ácido ortofosfórico fue reemplazo por acido málico para proteger ambas harinas (Sustitución Media Málico, MSM; PB= 16,7%). La paja de trigo (fuente de forraje) y el concentrado fueron ofrecidos ad libitum. Dieciocho corderos fueron distribuidos en seis cubículos con tres animales para cada dieta. Los datos fueron analizados según un análisis factorial considerando el peso inicial como covariable y la granja de procedencia como bloque. Los datos de consumo de concentrado y eficiencia de conversión fueron analizados usando el cubículo como unidad experimental, mientras que los datos sobre ganancia media diaria, rendimiento a la canal, grasa dorsal y grasa pélvico renal fueron analizados usando el cordero como unidad experimental. No se encontró ningún efecto asociado con el nivel de PB sobre ninguna variable estudiada. Esto sugiere que usando proteínas protegidas es posible utilizar concentrados con 15,6% de PB (sobre materia seca) disminuyendo así la cantidad de concentrados de proteína vegetal a incluir en los piensos y la calidad de los concentrados proteicos. Los corderos alimentados con la dieta MSM tuvieron mayores ganancias medias diarias (15,2%; P= 0,042), y mejores rendimiento a la canal en caliente (1,3 unidades porcentuales; P= 0,037) que los corderos alimentados con el concentrado MSP. Esto podría ser explicado por los efectos benéficos ruminales del malato o por el mayor efecto de protección conseguido con el ácido málico. ABSTRACT The main objective of this thesis project was to increase the protein efficiency in ruminant diets by using protected protein (sunflower meal and spring pea), and improving the prediction of microbial protein supply. Commercial sunflower meal (SFM) and spring pea (SP) were treated with 4 N solutions (200 mL/kg) of malic acid (268.2 g/L) or orthophosphoric acid (130.6 g/L). Daily, two fractions of 12.5 kg of one of these meals were successively sprayed with the tested acid solution in a concrete mixer using a sprayer. Both fractions were then mixed and allowed to rest for 1 h at room temperature. The blend was then dried in a forced air oven at 120 ºC for 1 h. Then the oven was turned off and the treated material was left in the oven overnight. During the drying process, the material was stirred every 30 min during the first 2 h and then every 60 min for the subsequent 5 h. This process was repeated until the amounts of treated flour needed for the different trials performed. In the first experiment (chapter 3), ruminal and intestinal digestion trials were conducted to study the effects of the application of these acid solutions and heat to protect proteins of SFM and SP against ruminal degradation using three wethers fitted with rumen and duodenum cannulae. The ruminal digestion study was carried out in three experimental periods in which the wethers were successively fed three isoproteic diets including SFM and SP, untreated or treated with malic or orthophosphoric acids. The experimental periods of 21 days included successively: 10 days of diet adaptation, SFM and SP particle ruminal transit study (days 11–14) and ruminal nylon-bag incubations (days 15–21). The meals incubated in each experimental period were those corresponding to the associated diet. Rumen bacteria were labelled from days 11 to 21 by continuous intra-ruminal infusion of a 15N source and the rumen was emptied at the end of in situ incubations in each period to isolate solid adherent bacteria and liquid associate bacteria. The intestinal digestion trial was conducted twenty days after the end of the ruminal studies to eliminate the 15N enrichment in the digesta. The tested samples were composite samples obtained pooling the different ruminally undegraded residues to be representative of the chemical composition of the ruminally undegraded fraction (RU). Wethers were fed the untreated diet to determine the intestinal digestibility of untreated and treated meals using the mobile nylon bag technique. In addition, protein in untreated and treated meals and their 0 h, composite and intestinally undigested samples were extracted and subjected to electrophoresis to determine the digestion site of the different protein fractions. Estimates of the RU and its intestinal digestibility of dry matter, organic matter (only for RU), crude protein (CP) and starch (only in SP) were obtained considering ruminal microbial contamination and particle comminution and outflow rates. When corrected for the microbial contamination taking place in the rumen, estimates of RU and intestinal digestibility decreased in all tested fractions for both feeds. All RU estimates increased with the protective treatments, whereas intestinal digestibility-dry matter also increased in SFM. Low intestinal digestibility-CP values in untreated and treated samples suggested the presence of non-heat labile antitrypsin factors in SP. Protective treatments of both feeds led to consistent increases in the intestinal digested fraction of dry matter and CP, being only numerically different for SP-starch (60.5% as average). However, treatments also reduced the organic matter fermentation, which may decrease ruminal microbial protein synthesis. Electrophoretic studies showed albumin disappearance in both SFM and SP, whereas changes in other RU proteins were more pronounced in SP than SFM. The chemical composition of bacteria associated with solid (SAB) and liquid (LAB) rumen-digesta phases was studied to examine the accuracy of a previous regression system determining the underevaluation of SAB-nutrient supply using 15N as marker and LAB as microbial reference (chapter 4). Compared with SAB, LAB showed lower contents of organic matter, polysaccharide-glucose and total lipids and the opposite for the CP content and the 15N enrichment. Present data fitted well to the previous relationship predicting the 15N enrichment of SAB from the same value in LAB. This new equation allows establishing an underevaluation in the supply of CP from the synthesized SAB in 22.0% if LAB is used as reference. Another relationship calculated using mean diet values from the literature confirmed the magnitude of this error. This underevaluation was higher for the supply of glucose (43.1%) and still higher for the lipid supply (59.9%) as a consequence of the lower contents of these both fractions in LAB than in SAB. These errors should be considered to obtain more accurate estimates of the microbial nutrient supply and to improve ruminant nutrition. A production study was performed in experiment 2 (chapter 5) to examine the effects of treating SFM and SP meals with orthophosphoric or malic acid solutions on growth performance, concentrate intake, and carcass yield and fatness of growing-fattening lambs. Ninety "Entrefino" cross male lambs from three commercial farms (average initial body weights (BW) = 14.6, 15.3 and 13.3 kg) were randomly assigned to five diets with different acid treatment and protein levels, and fattened to an average slaughter weight of 25 kg. Protein sources in the control concentrate (C; CP=18%) were soybean meal and untreated SFM and SP. In three of the experimental concentrates, orthophosphoric acid-treated meals substituted untreated SFM and SP (Orthophosphoric Control, PC; CP=18% dry matter basis), and soybean meal was partially (Medium Substitution Orthophosphoric, MSP; CP=16.7%) or totally removed (Total Substitution Orthophosphoric, TSP; CP=15.6%). In addition, in one concentrate orthophosphoric acid was replaced by malic acid to protect these meals (Medium Substitution Malic, MSM; CP= 16.7%). Wheat straw (roughage source) and concentrate were offered ad libitum. Eighteen lambs were allocated to six pens of three animals on each diet. Data were analyzed using a factorial analysis with initial body weight BW as covariate and farm of origin as block. Data on concentrate intake and feed conversion efficiency were analyzed using pen as experimental unit, while data on average daily gain, carcass yield, dorsal fat, and kidney-pelvic-fat were analyzed with lamb as experimental unit. No effect associated with the CP level was observed on any parameter. This suggests that with protected proteins it is possible to feed concentrates with 15.6% CP (dry matter basis) reducing the quantity of vegetable protein meals to include in the concentrate as well as the quality of the protein concentrates. Lambs feed MSM had higher average daily gains (15.2%; P= 0.042), and better hot carcass yields (1.3 percentage points; P= 0.037) than lambs feed MSP. This probably can be explained by ruminal malate actions and by greater protection effects obtained with malic acid.
Resumo:
Las instituciones de educación superior deben gestionar eficaz y eficientemente sus procesos de captación de nuevos estudiantes, y con este objetivo necesitan mejorar su comprensión sobre los antecedentes que inciden en la intención de recomendarlas. Por lo que esta Tesis Doctoral se centra en el estudio y análisis de las componentes de la calidad del servicio de la educación superior, como antecedentes de la intención de recomendación de una institución universitaria. El enfoque que se adopta en esta investigación integra las dimensiones de calidad docente y de calidad de servicio e incorpora en el análisis la valoración global de la carrera. Paralelamente se contempla la moderación de la experiencia y el desempeño académico del estudiante. En esta Tesis Doctoral se hace uso de la Encuesta de Calidad de la Universidad ORT Uruguay cedida a los autores para su explotación con fines de investigación. Los estudiantes cumplimentan la encuesta semestralmente con carácter obligatorio en una plataforma en línea autoadministrada, que permite identificar las valoraciones realizadas por los estudiantes a lo largo de su paso por la universidad. Por lo que la base de datos es un panel no balanceado que consta de 195.058 registros obtenidos, a partir de 7.077 estudiantes en 17 semestres (marzo de 2003 a 2011). La metodología se concreta en los Modelos de Ecuaciones Estructurales, que proporciona una serie de ventajas con respecto a otras aproximaciones. Una de las más importantes es que permite al investigador introducir información a priori y valorar su inclusión, además de reformular las modelizaciones propuestas desde una perspectiva multi-muestra. En esta investigación se estiman los modelos con MPLUS 7. Entre las principales conclusiones de esta Tesis Doctoral cabe señalar que las percepciones de calidad, servicio, docencia y carrera, inciden positivamente en la intención de recomendar la universidad, y que la variable experiencia del estudiante modera dichas relaciones. Los resultados señalan, en general, que a medida que los estudiantes avanzan en su carrera, los efectos totales de la percepción de la calidad del servicio en la calidad global de la carrera y en la intención de recomendar la universidad son mayores que los efectos que tiene la percepción de calidad de la docencia. Estos hallazgos señalan la necesidad que tienen estas instituciones de educación superior de incorporar en su planificación estratégica la segmentación de los estudiantes según su experiencia. ABSTRACT For institutions of higher education to effectively and efficiently manage their processes for attracting new students, they need to understand the influences that activate student intentions to recommend a program and/or college. This Thesis describes research identifying the quality components of a university that serve as antecedents of student intentions to recommend. The research design integrates teaching and service dimensions of higher education, as well as measures of student perceptions of the overall quality of a program. And introduces the student quality and student experience during the program as moderators of these relationships. This Thesis makes use of the Quality Survey of the Universidad ORT Uruguay ceded to the authors for their exploitation for research purposes. The students complete the survey each semester in a self-administered online platform, which allows to identify the assessments conducted by the students throughout its passage by the university. So that the database is an unbalanced panel consisting of 195.058 records obtained from 7.077 students in 17 semesters (march 2003 to 2011). The methodology of analysis incorporated Simultaneous Equation Models, which provides a number of advantages with respect to other approaches. One of the most important is that it allows the researcher to introduce a priori information and assess its inclusion, in addition to reformulate the modellings proposals with a multi-sample approach. In this research the models are estimated with MPLUS 7. Based on the findings, student perceptions of quality, service, teaching and program, impact positively the intent to recommend the university, but the student’s experience during the program moderates these relationships. Overall, the results indicate that as students advance in the program, the full effects of the perception of service quality in the overall quality of the program and in the intention to recommend the university, outweigh the effects of the perceived teaching quality. The results indicate the need for institutions of higher education to incorporate in its strategic planning the segmentation of the students according to their experience during the program.
Resumo:
El objetivo de este trabajo de investigación fue evaluar el efecto de la aplicación de lodos residuales procedentes de una planta de tratamiento de aguas residuales acondicionados como biosólido para el abonado de tres cultivos agrícolas. Esto se realizó a través del estudio de las variables de producción (desarrollo vegetal de cada cultivo) y de la comparación de las características de los suelos utilizados antes y después de los ensayos experimentales. A través de la investigación se confirmó la mejora en la calidad del suelo y mejor rendimiento de cultivo debido a los biosólidos procedentes de tratamiento de aguas residuales. Este trabajo de investigación de tipo descriptivo y experimental, utilizó lodos optimizados que fueron aplicados a tres cultivos agrícolas de ciclo corto. Fueron evaluados dos cultivos (sandía y tomate) bajo riego y un cultivo (arroz) en secano. En la primera fase del trabajo se realizó la caracterización de los lodos, para ellos se realizaron pruebas físico químicas y microbiológicas. Fue utilizado el método de determinación de metales por espectrometría de emisión atómica de plasma acoplado inductivamente, (ICP-AES) para conocer las concentraciones de metales. La caracterización microbiológica para coliformes totales y fecales se realizó utilizando la técnica del Número más probable (NMP), y para la identificación de organismos patógenos se utilizó el método microbiológico propuesto por Kornacki & Johnson (2001), que se fundamenta en dos procesos: pruebas presuntivas y prueba confirmativa. Tanto los resultados para la determinación de metales y elementos potencialmente tóxicos; como las pruebas para la determinación de microorganismos potencialmente peligrosos, estuvieron por debajo de los límites considerados peligrosos establecidos por la normativa vigente en Panama (Reglamento Técnico COPANIT 47-2000). Una vez establecido la caracterización de los lodos, se evalúo el potencial de nutrientes (macro y micro) presentes en los biosólidos para su potencial de uso como abono en cultivos agrícolas. El secado de lodos fue realizado a través de una era de secado, donde los lodos fueron deshidratados hasta alcanzar una textura pastosa. “La pasta de lodo” fue transportada al área de los ensayos de campo para continuar el proceso de secado y molida. Tres ensayos experimentales fueron diseñados al azar con cinco tratamientos y cuatro repeticiones para cada uno de los tres cultivos: sandía, tomate, arroz, en parcelas de 10m2 (sandía y tomate) y 20 m2 (arroz) para cada tratamiento. Tres diferentes dosis de biosólidos fueron evaluadas y comparadas con un tratamiento de fertilizante comercial y un tratamiento control. La dosis de fertilizante comercial utilizada en cada cultivo fue la recomendada por el Instituto de Investigación Agropecuaria de Panamá. Los ensayos consideraron la caracterización inicial del suelo, la preparación del suelo, semilla, y arreglo topográfico de los cultivos siguiendo las recomendaciones agronómicas de manejo de cultivo establecida por el Instituto de Investigación Agropecuaria. Para los ensayos de sandía y tomate se instaló el sistema de riego por goteo. Se determinaron los ácidos húmicos presentes en los cultivos, y se estudiaron las variables de desarrollo de cada cultivo (fructificación, cosecha, peso de la cosecha, dimensiones de tamaño y color de las frutas, rendimiento, y la relación costo – rendimiento). También se estudiaron las variaciones de los macro y micro nutrientes y las variaciones de pH, textura de suelo y MO disponible al inicio y al final de cada uno de los ensayos de campo. Todas las variables y covariables fueron analizadas utilizando el programa estadístico INFOSAT (software para análisis estadístico de aplicación general) mediante el análisis de varianza, el método de comparaciones múltiples propuesto por Fisher (LSD Fisher) para comparar las medias de los cultivares y el coeficiente de correlación de Pearson que nos permite analizar si existe una asociación lineal entre dos variables. En la evaluación de los aportes del biosólido a los cultivos se observó que los macronutrientes N y P se encontraban de los límites requeridos en cada uno de los cultivos, pero que los niveles de K estuvieron por debajo de los requerimientos de los cultivos. A nivel de la fertilización tradicional con fertilizante químico se observó que la dosis recomendada para cada uno de los cultivos del estudio estaba sobreestimada en los tres principales macronutrientes: Nitrógeno, Fosforo y Potasio. Contenían concentraciones superiores de N, P y K a las requeridas teóricamente por el cultivo. El nutriente que se aporta en exceso es el Fósforo. Encontramos que para el cultivo de sandía era 18 veces mayor a lo requerido por el cultivo, en tomate fue 12 veces mayor y en el cultivo de arroz, 34 veces mayor. El fertilizante comercial tuvo una influencia en el peso final y rendimiento final en cada uno de los cultivos del estudio. A diferencia, los biosólidos tuvieron una influencia directa en el desarrollo de los cultivos (germinación, coloración, tamaño, longitud, diámetro, floración y resistencia a enfermedades). Para el caso de la sandía la dosis de biosólido más cercana al óptimo para el cultivo es la mayor dosis aplicada en este ensayo (97.2 gramos de biosólido por planta). En el caso de tomate, el fertilizante comercial obtuvo los mejores valores, pero las diferencias son mínimas con relación al tratamiento T1, de menor dosis de biosólido (16.2 gramos de biosólido por planta). Los resultados generales del ensayo de tomate estuvieron por debajo del rendimiento esperado para el cultivo. Los tratamientos de aplicación de biosólidos aportaron al desarrollo del cultivo en las variables tamaño, color y resistencia a las enfermedades dentro del cultivo de tomate. Al igual que el tomate, en el caso del arroz, el tratamiento comercial obtuvo los mejores resultados. Los resultados finales de peso y rendimiento del cultivo indican que el tratamiento (T2), menor dosis de biosólido (32.4 gramos por parcela), no tuvo diferencias significativas con los resultados obtenidos en las parcelas con aplicación de fertilizante comercial (T1). El tratamiento T4 (mayor dosis de biosólido) obtuvo los mejores valores para las variables germinación, ahijamiento y espigamiento del cultivo, pero al momento de la maduración obtuvo los menores resultados. Los biosólidos aportan nutrientes a los cultivos y al final del ensayo se observó que permanecen disponibles en el suelo, aportando a la mejora del suelo final. En los tres ensayos, se pudo comprobar que los aportes de los biosólidos en el desarrollo vegetativo de los cultivos. También se encontró en todos los ensayos que no hubo diferencias significativas (p > 0.05) entre los tratamientos de biosólidos y fertilizante comercial. Para obtener mejores resultados en estos tres ensayos se requeriría que a la composición de biosólidos (utilizada en este ensayo) se le adicione Potasio, Calcio y Magnesio en las cantidades requeridas por cada uno de los cultivos. ABSTRACT The objective of this investigation was to evaluate the effect of residual sewage sludge obtained from the residual water of a treatment plant conditioned as Biosolid used on three reliable agricultural crops. The effect of the added sewage sludge was evaluated through the measurement of production variables such as crop plant development and the comparison of the soil characteristics used before and after the experimental tests. This investigation confirmed that biosolids from wastewater treatment can contribute to the growth of these crops. In this experimental approach, optimized sludge was applied to three short-cycle crops including two low-risk crops (watermelon and tomato) and one high-risk crop (rice) all grown on dry land. In the first phase of work, the characteristics of the sludge were assessed using chemical, physical and microbiological tests. The concentrations of metals were determined by atomic emission spectrometry inductively coupled plasma, (ICP-AES). Microbiological characterization was performed measuring total coliform and fecal count using the most probable number technique (NMP) and microbiological pathogens were identified using Kornacki & Johnson (2001) method based on two processes: presumptive and confirmatory tests. Both the results for the determination of metals and potentially toxic elements, as testing for the determination of potentially dangerous microorganisms were below the limits established by the applicable standard in Panama (Technical Regulate COPANIT 47-2000). After the metal and bacterial characterization of the sludge, the presence of macro or micronutrients in biosolids was measured to evaluate its potential for use as fertilizer in the growth of agricultural crops. The sludge was dehydrated via a drying process into a muddy slurry. The pulp slurry was transported to the field trial area to continue the process of drying and grinding. Three randomized experimental trials were designed to test with five treatment regimens and four replications for each of the crops: watermelon, tomato, rice. The five treatment regimens evaluated were three different doses of bio solid with commercial fertilizer treatment control and no fertilizer treatment control. Treatment areas for the watermelon and tomato were 10m2 plots land and for rice was 20m2. The amount of commercial fertilizer used to treat each crop was based on the amount recommended by Agricultural Research Institute of Panama. The experimental trials considered initial characterization of soil, soil preparation, seed, and crop topographical arrangement following agronomic crop management recommendations. For the tests evaluating the growth of watermelons and tomatoes and drip irrigation system was installed. The amount of humic acids present in the culture were determined and developmental variable of each crop were studied (fruiting crop harvest weight, size dimensions and color of the fruit, performance and cost effectiveness). Changes in macro and micronutrients and changes in pH, soil texture and OM available were measured at the beginning and end of each field trial. All variables and covariates were analyzed using INFOSAT statistical program (software for statistical analysis of general application) by analysis of variance, multiple comparisons method as proposed by Fisher (LSD Fisher) to compare the means of cultivars and the Pearson ratio that allows us to analyze if there is a linear association between two variables. In evaluating the contribution of biosolids to agricultural crops, the study determined that the macronutrients N & P were within the requirements of crops, but K levels were below the requirements of crops. In terms of traditional chemical fertilizer fertilization, we observed that the recommended dose for each study crop was overestimated for the three major nutrients: nitrogen, phosphorus and potassium. Higher concentrations containing N, P and K to the theoretically required by the crop. The recommended dose of commercial fertilizer for crops study contained greater amounts of phosphorus, crops that need. The level of phosphorous was found to be18 times greater than was required for the cultivation of watermelon; 12 times higher than required for tomato, and 34 times higher than required for rice cultivation. Phosphorus inputs of commercial fertilizer were a primary influence on the weight and performance of each crop. Unlike biosolids had a direct influence on crop development (germination, color, size, length, diameter, flowering and disease resistance). In the case of growth of watermelons, the Biosolid dose closest to the optimum for cultivation was applied the highest dose in this assay (97.2 grams of bio solids per plant). In the case of tomatoes, commercial fertilizer had the best values but the differences were minimal when compared to treatment T1, the lower dose of sewage sludge (Biosolid 16.2 grams per plant). The overall results for the tomato crop yield of the trial were lower than expected. Additionally, the application of biosolids treatment contributed to the development of fruit of variable size, color and disease resistance in the tomato crops. Similar to the tomato crop, commercial fertilizer treatment provided the best results for the rice crop. The final results of weight and crop yield for rice indicated that treatment with T2 amount of biosolids (34.2 grams per plot) was not significantly different from the result obtained in the application plot given commercial fertilizer (T1). The T4 (higher dose of bio solid) treatment had the best values for the germination, tillering and bolting variables of the rice crop but for fruit ripening yielded lower results. In all three trials, biosolids demonstrated the ability to contribute in the vegetative growth of crops. It was also found in all test no significant differences (p>0.05) between treatment of bio solid and commercial fertilizer. Biosolids provided nutrients to the crops and even at the end of the trial remained available in the ground soil, contributing to the improvement of the final ground. The best results from these three trials is that the use of bio solids such as those used in this assay would require the addition of potassium, calcium and magnesium in quantities required for each crop.
Resumo:
Los bosques húmedos de montaña se encuentran reconocidos como uno de los ecosistemas más amenazados en el mundo, llegando inclusive a ser considerado como un “hotspot” por su alta diversidad y endemismo. La acelerada pérdida de cobertura vegetal de estos bosques ha ocasionado que, en la actualidad, se encuentren restringidos a una pequeña fracción de su área de distribución histórica. Pese a esto, los estudios realizados sobre cual es efecto de la deforestación, fragmentación, cambios de uso de suelo y su efecto en las comunidades de plantas presentes en este tipo de vegetación aún son muy escuetos, en comparación a los realizados con sus similares amazónicos. En este trabajo, el cual se encuentra dividido en seis capítulos, abordaremos los siguientes objetivos: a) Comprender cuál es la dinámica que han seguido los diferentes tipos de bosques montanos andinos de la cuenca del Rio Zamora, Sur de Ecuador durante entre 1976 y 2002. b) Proveer de evidencia de las tasas de deforestación y fragmentación de todos los tipos diferentes de bosques montanos andinos presentes en la cuenca del Rio Zamora, Sur de Ecuador entre 1976 y 2002. c) Determinar qué factores inducen a la fragmentación de bosques de montaña en la cuenca alta del río Zamora entre 1976 y 2002. d) Determinar cuáles son y cómo afectan los factores ambientales y socioeconómicos a la dinámica de la deforestación y regeneración (pérdida y recuperación del hábitat) sufrida por los bosques de montaña dentro de la zona de estudio y e) Determinar si la deforestación y fragmentación actúan sobre la diversidad y estructura de las comunidades de tres tipos de organismos (comunidades de árboles, comunidades de líquenes epífitos y comunidades de hepáticas epífitas). Este estudio se centró en el cuenca alta del río Zamora, localizada al sur de Ecuador entre las coordenadas 3º 00´ 53” a 4º 20´ 24.65” de latitud sur y 79º 49´58” a 78º 35´ 38” de longitud oeste, que cubre alrededor de 4300 km2 de territorio situado entre las capitales de las provincias de Loja y Zamora-Chinchipe. Con objeto de predecir la dinámica futura de la deforestación en la región de Loja y cómo se verán afectados los diferentes tipos de hábitat, así como para detectar los factores que más influyen en dicha dinámica, se han construido modelos basados en la historia de la deforestación derivados de fotografías aéreas e imágenes satelitales de tres fechas (1976, 1989 y 2002). La cuantificación de la deforestación se realizó mediante la tasa de interés compuesto y para la caracterización de la configuración espacial de los fragmentos de bosque nativo se calcularon índices de paisaje los cuales fueron calculados utilizando el programa Fragstats 3.3. Se ha clasificado el recubrimiento del terreno en forestal y no forestal y se ha modelado su evolución temporal con Modelos Lineales Generalizados Mixtos (GLMM), empleando como variables explicativas tanto variables ambientales espacialmente explícitas (altitud, orientación, pendiente, etc) como antrópicas (distancia a zonas urbanizadas, deforestadas, caminos, entre otras). Para medir el efecto de la deforestación sobre las comunidades modelo (de árboles, líquenes y hepáticas) se monitorearon 11 fragmentos de vegetación de distinto tamaño: dos fragmentos de más de cien hectáreas, tres fragmentos de entre diez y noventa ha y seis fragmentos de menos de diez hectáreas. En ellos se instalaron un total de 38 transectos y 113 cuadrantes de 20 x 20 m a distancias que se alejaban progresivamente del borde en 10, 40 y 80 m. Nuestros resultados muestran una tasa media anual de deforestación del 1,16% para todo el período de estudio, que el tipo de vegetación que más alta tasa de destrucción ha sufrido, es el páramo herbáceo, con un 2,45% anual. El análisis de los patrones de fragmentación determinó un aumento en 2002 de más del doble de fragmentos presentes en 1976, lo cual se repite en el análisis del índice de densidad promedio. El índice de proximidad media entre fragmentos muestra una reducción progresiva de la continuidad de las áreas forestadas. Si bien las formas de los fragmentos se han mantenido bastante similares a lo largo del período de estudio, la conectividad entre estos ha disminuido en un 84%. Por otro lado, de nuestros análisis se desprende que las zonas con mayor probabilidad de deforestarse son aquellas que están cercanas a zonas previamente deforestadas; la cercanía a las vías también influye significativamente en la deforestación, causando un efecto directo en la composición y estructura de las comunidades estudiadas, que en el caso de los árboles viene mediado por el tamaño del fragmento y en el caso del componente epífito (hepáticas y líquenes), viene mediado tanto por el tamaño del fragmento como por la distancia al borde del mismo. Se concluye la posibilidad de que, de mantenerse esta tendencia, este tipo de bosques desaparecerá en corto tiempo y los servicios ecosistémicos que prestan, se verán seriamente comprometidos. ABSTRACT Mountain rainforests are recognized as one of the most threatened ecosystems in the world, and have even come to be considered as a “hotspot” due to their high degree of diversity and endemism. The accelerated loss of plant cover of these forests has caused them to be restricted today to a small fraction of their area of historic distribution. In spite of this, studies done on the effect of deforestation, fragmentation, changes in soil use and their effect on the plant communities present in this type of vegetation are very brief compared to those done on their analogues in the Amazon region. In this study, which is divided into six chapters, we will address the following objectives: a) To understand what the dynamic followed by the different types of Andean mountain forests in the Zamora River watershed of southern Ecuador has been between 1976 and 2002. b) To provide evidence of the rates of deforestation and fragmentation of all the different types of Andean mountain forests existing in the upper watershed of the Zamora River between 1976 and 2002. c) To determine the factors that induces fragmentation of all different types of Andean mountain forests existing in the upper watershed of the Zamora River between 1976 and 2002. d) To determine what the environmental and anthropogenic factors are driving the dynamic of deforestation and regeneration (loss and recuperation of the habitat) suffered by the mountain forests in the area of the study and e) To determine if the deforestation and fragmentation act upon the diversity and structure of three model communities: trees, epiphytic lichens and epiphytic liverworts. This study is centered on the upper Zamora River watershed, located in southern Ecuador between 3º 00´ 53” and 4º 20´ 24.65 south latitude and 79º 49´ 58” to 78º 35´ 38” west longitude, and covers around 4,300 km2 of territory located between Loja and Zamora-Chinchipe provinces. For the purpose of predicting the future dynamic of deforestation in the Loja region and how different types of habitats will be affected, as well as detecting the environmental and socioeconomic factors that influence landscape dynamics, models were constructed based on deforestation history, derived from aerial photographs and satellite images for three dates (1976, 1989 and 2002). Quantifying the deforestation was done using the compound interest rate; to characterize the spatial configuration of fragments of native forest, landscape indices were calculated with Fragstats 3.3 program. Land cover was classified as forested and not forested and its evolution over time was modeled with Generalized Linear Mixed Models (GLMM), using spatially explicit environmental variables (altitude, orientation, slope, etc.) as well as anthropic variables (distance to urbanized, deforested areas and roads, among others) as explanatory variables. To measure the effects of fragmentation on three types of model communities (forest trees and epiphytic lichen and liverworts), 11 vegetation fragments of different sizes were monitored: two fragments of more than one hundred hectares, three fragments of between ten and ninety ha and six fragments of fewer than ten hectares . In these fragments, a total of 38 transects and 113 20 x 20 m quadrats were installed at distances that progressively moved away from the edge of the fragment by 10, 40 and 80 m. Our results show an average annual rate of deforestation of 1.16% for the entire period of the study, and that the type of vegetation that suffered the highest rate of destruction was grassy paramo, with an annual rate of 2.45%. The analysis of fragmentation patterns determined the number of fragments in 2002 more than doubled the number of fragments present in 1976, and the same occurred for the average density index. The variation of the average proximity index among fragments showed a progressive reduction of the continuity of forested areas. Although fragment shapes have remained quite similar over the period of the study, connectivity among them has diminished by 84%. On the other hand, it emerged from our analysis that the areas of greatest probability of deforestation were those that are close to previously deforested areas; proximity to roads also significantly favored the deforestation causing a direct effect on the composition of our model communities, that in the case of forest trees is determined by the size of the fragment, and in the case of the epiphyte communities (liverworts and lichens), is determined, by the size of the fragment as well as the distance to edge. A subject under discussion is the possibility that if this tendency continues, this type of forest will disappear in a short time, and the ecological services it provides, will be seriously endangered.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
El concepto tradicional de reglas de ensamblaje refleja la idea de que las especies no co-ocurren al azar sino que están restringidos en su co-ocurrencia por la competencia interespecífica o por un filtrado ambiental. En está tesis abordé la importancia de los procesos que determinan el ensamble de la comunidad en la estructuración de los Bosques Secos en el Sur del Ecuador. Este estudio se realizó en la región biogeográfica Tumbesina, donde se encuentra la mayor concentración de bosques secos tropicales bien conservados del sur de Ecuador, y que constituyen una de las áreas de endemismo más importantes del mundo. El clima se caracteriza por una estación seca que va desde mayo a diciembre y una estación lluviosa de enero a abril, su temperatura anual varía entre 20°C y 26°C y una precipitación promedio anual entre 300 y 700 mm. Mi primer tema fue orientado a evaluar si la distribución de los rasgos funcionales a nivel comunitario es compatible con la existencia de un filtro ambiental (filtrado del hábitat) o con la existencia de un proceso de limitación de la semejanza funcional impuesta por la competencia inter-específica entre 58 especies de plantas leñosas repartidas en 109 parcelas (10x50m). Para ello, se analizó la distribución de los valores de cinco rasgos funcionales (altura máxima, densidad de la madera, área foliar específica, tamaño de la hoja y de masa de la semilla), resumida mediante varios estadísticos (rango, varianza, kurtosis y la desviación estándar de la distribución de distancias funcionales a la especies más próxima) y se comparó con la distribución esperada bajo un modelo nulo con ausencia de competencia. Los resultados obtenidos apoyan que tanto el filtrado ambiental como la limitación a la semejanza afectan el ensamble de las comunidades vegetales de los bosques secos Tumbesinos. Un segundo tema fue identificar si la diversidad funcional está condicionada por los gradientes ambientales, y en concreto si disminuye en los ambientes más estresantes a causa del filtrado ambiental, y si por el contrario aumenta en los ambientes más benignos donde la competencia se vuelve más importante, teniendo en cuenta las posibles modificaciones a este patrón general a causa de las interacciones de facilitación. Para abordar este estudio analizamos tanto las variaciones en la diversidad funcional (respecto a los de los cinco rasgos funcionales empleados en el primer capítulo de la tesis) como las variaciones de diversidad filogenética a lo largo de un gradiente de estrés climático en los bosques tumbesinos, y se contrastaron frente a las diversidades esperadas bajo un modelo de ensamblaje completamente aleatorio de la comunidad. Los análisis mostraron que tan sólo la diversidad de tamaños foliares siguió el patrón de variación esperado, disminuyendo a medida que aumentó el estrés abiótico mientras que ni el resto de rasgos funcionales ni la diversidad funcional multivariada ni la diversidad filogenética mostraron una variación significativa a lo largo del gradiente ambiental. Un tercer tema fue evaluar si los procesos que organizan la estructura funcional de la comunidad operan a diferentes escalas espaciales. Para ello cartografié todos los árboles y arbustos de más de 5 cm de diámetro en una parcela de 9 Ha de bosque seco y caractericé funcionalmente todas las especies. Dicha parcela fue dividida en subparcelas de diferente tamaño, obteniéndose subparcelas a seis escalas espaciales distintas. Los resultados muestran agregación de estrategias funcionales semejantes a escalas pequeñas, lo que sugiere la existencia bien de filtros ambientales actuando a escala fina o bien de procesos competitivos que igualan la estrategia óptima a dichas escalas. Finalmente con la misma información de la parcela permanente de 9 Ha. Nos propusimos evaluar el efecto y comportamiento de las especies respecto a la organización de la diversidad taxonómica, funcional y filogenética. Para ello utilicé tres funciones sumario espaciales: ISAR- para el nivel taxonómico, IFDAR para el nivel funcional y IPSVAR para el nivel filogenética y las contrastamos frente a modelos nulos que describen la distribución espacial de las especies individuales. Los resultados mostraron que en todas las escalas espaciales consideradas para ISAR, IFDAR y IPSVAR, la mayoría de las especies se comportaron como neutras, es decir, que están rodeados por la riqueza de diversidad semejante a la esperada. Sin embargo, algunas especies aparecieron como acumuladoras de diversidad funcional y filogenética, lo que sugiere su implicación en procesos competitivos de limitación de la semejanza. Una pequeña proporción de las especies apareció como repelente de la diversidad funcional y filogenética, lo que sugiere su implicación en un proceso de filtrado de hábitat. En este estudio pone de relieve cómo el análisis de las dimensiones alternativas de la biodiversidad, como la diversidad funcional y filogenética, puede ayudarnos a entender la co-ocurrencia de especies en diversos ensambles de comunidad. Todos los resultados de este estudio aportan nuevas evidencias de los procesos de ensamblaje de la comunidad de los Bosques Estacionalmente secos y como las variables ambientales y la competencia juegan un papel importante en la estructuración de la comunidad. ABSTRACT The traditional concept of the rules assembly for species communities reflects the idea that species do not co-occur at random but are restricted in their co-occurrence by interspecific competition or an environmental filter. In this thesis, I addressed the importance of the se processes in the assembly of plant communities in the dry forests of southern Ecuador. This study was conducted in the biogeographic region of Tumbesina has the largest concentration of well-conserved tropical dry forests of southern Ecuador, and is recognized as one of the most important areas of endemism in the world. The climate is characterized by a dry season from May to December and a rainy season from January to April. The annual temperature varies between 20 ° C and 26 ° C and an average annual rainfall between 300 and 700 mm. I first assessed whether the distribution of functional traits at the level of the community is compatible with the existence of an environmental filter (imposed by habitat) or the existence of a limitation on functional similarity imposed by interspecific competition. This analysis was conducted for 58 species of woody plants spread over 109 plots of 10 x 50 m. Specifically, I compared the distribution of values of five functional traits (maximum height, wood density, specific leaf area, leaf size and mass of the seed), via selected statistical properties (range, variance, kurtosis and analyzed the standard deviation of the distribution of the closest functional species) distances and compared with a expected distribution under a null model of no competition. The results support that both environmental filtering and a limitation on trait similarity affect the assembly of plant communities in dry forests Tumbesina. My second chapter evaluated whether variation in functional diversity is conditioned by environmental gradients. In particular, I tested whether it decreases in the most stressful environments because of environmental filters, or if, on the contrary, functional diversity is greater in more benign environments where competition becomes more important (notwithstanding possible changes to this general pattern due to facilitation). To address this theme I analyzed changes in both the functional diversity (maximum height, wood density, specific leaf area, leaf size and mass of the seed) and the phylogenetic diversity, along a gradient of climatic stress in Tumbes forests. The observed patterns of variation were contrasted against the diversity expected under a completely random null model of community assembly. Only the diversity of leaf sizes followed the hypothesis decreasing in as trait variation abiotic stress increased, while the other functional traits multivariate functional diversity and phylogenetic diversity no showed significant variation along the environmental gradient. The third theme assess whether the processes that organize the functional structure of the community operate at different spatial scales. To do this I mapped all the trees and shrubs of more than 5 cm in diameter within a plot of 9 hectares of dry forest and functionally classified each species. The plot was divided into subplots of different sizes, obtaining subplots of six different spatial scales. I found aggregation of similar functional strategies at small scales, which may indicate the existence of environmental filters or competitive processes that correspond to the optimal strategy for these fine scales. Finally, with the same information from the permanent plot of 9 ha, I evaluated the effect and behavior of individual species on the organization of the taxonomic, functional and phylogenetic diversity. The analysis comprised three spatial summary functions: ISAR- for taxonomic level analysis, IFDAR for functional level analysis, and IPSVAR for phylogenetic level analysis, in each case the pattern of diversity was contrasted against null models that randomly reallocate describe the spatial distribution of individual species and their traits. For all spatial scales considering ISAR, IFDAR and IPSVAR, most species behaved as neutral, i.e. they are surrounded by the diversity of other traits similar to that expected under a null model. However, some species appeared as accumulator of functional and phylogenetic diversity, suggesting that they may play a role in competitive processes that limiting similarity. A small proportion of the species appeared as repellent of functional and phylogenetic diversity, suggesting their involvement in a process of habitat filtering. These analysis highlights that the analysis of alternative dimensions of biodiversity, such as functional and phylogenetic diversity, can help us understand the co-occurrence of species in the assembly of biotic communities. All results of this study provide further evidence of the processes of assembly of the community of the seasonally dry forests as environmental variables and competition play an important role in structuring the community.