13 resultados para Combined análisis

em Universidad Politécnica de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo principal de esta tesis fue incrementar el valor proteico para rumiantes de la harina de girasol mediante tratamientos combinados con ácidos y calor para proteger sus proteínas frente a la degradación ruminal. Estos estudios comprenden dos experimentos realizados sobre ovinos mediante tecnologías in vitro (experimento 1) o in situ e in vivo (experimento 2), empleando siempre dos ácidos: málico u ortofosfórico. Aprovechando este último experimento, también se consideraron otros objetivos de carácter metodológico con el fin de mejorar la precisión de las estimas de i) la degradabilidad ruminal y la digestibilidad intestinal de la proteína y los aminoácidos (AAs) de los alimentos y ii) la síntesis microbiana ruminal y su contribución al flujo post-ruminal de nutrientes al animal. En el experimento 1 (capítulo 2) se efectuaron cuatro ensayos in vitro para estudiar la influencia de distintos factores que puedan afectar la eficacia de estos tratamientos. En cada ensayo se utilizó una réplica por tratamiento (dos para el tratamiento control) y dos bolsas vacías (empleadas para corregir la contaminación microbiana) en cada una de las cuatro botellas del incubador (ANKOM Daisy II). Cada botella contenía 2 l de medio de incubación, saturado con CO2 para asegurar la anaerobiosis. Este medio consistió en una mezcla de solución McDougall y liquido ruminal filtrado en relación 4:1. El liquido ruminal fue obtenido de 2 corderos canulados en rumen, utilizándose bien solo o mezclado con el del otro cordero en una relación 3:1. Así, cada botella de incubación contenía un inoculo ruminal diferente. Las incubaciones se realizaron a 39 ºC durante 20 h, siendo las bolsas lavadas con agua corriente y almacenadas a -20 ºC. Tras ser descongeladas, se lavaron 3 veces durante 5 min en una mini-lavadora de turbina, se desecaron a 80 ºC durante 48 h y se destinaron íntegras al análisis de N-Kjeldahl. En el ensayo 1 se estudió el efecto del volumen de disolución de dos dosis de ácido ortofosfórico (0,4 y 1,2 equivalentes gramo (eq)/kg de harina de girasol), testando cinco volúmenes de disolución (80, 160, 240, 320 and 400 ml/kg de harina) para cada dosis, desecándose las harinas a 60 ºC hasta sequedad al tacto. La proteína bruta (PB) indegradada se incremento con la dosis de ácido empleada y también (como tendencia, P < 0,1) con el volumen de dilución. En base a ello en los siguientes ensayos se utilizo el volumen de dilución mayor (400 ml/kg). En el ensayo 2 se estudió el efecto de la dosis y del tipo de ácido a cuatro dosis (1,2; 2,4; 3,6 y 4,8 eq/kg), secándose igualmente las muestras tratadas a 60 ºC. La PB indegradada aumentó con la dosis de ácido, siendo también mayor para el ácido málico, tanto en este ensayo como en los posteriores. En el ensayo 3 se estudiaron los efectos de los dos ácidos, cuatro concentraciones (0,6; 1,2; 1,8 y 2,4 eq/kg) y tres tratamientos térmicos para el secado de las muestras (100, 150 and 200 ºC durante 60, 30 y 20 minutos, respectivamente). Con los tratamientos térmicos a 100 y 150 ºC no hubo un incremento de protección para concentraciones superiores a 0,8 eq/kg para ambos ácidos. Para incrementar la protección fue necesario aumentar la temperatura a 200 ºC y la dosis a 1,2 eq/kg, no observándose un aumento de protección a dosis mayores. En el ensayo 4 se estudiaron los efectos sobre la lisina disponible, la solubilidad de la PB en saliva artificial de McDougall y la PB indegradada in vitro de tratar la harina solo con agua o con disoluciones de ambos ácidos a dosis de 0,8 eq/kg y temperaturas de secado de 100 ó 150 ºC en las mismas condiciones que en el ensayo 3. No se apreciaron efectos sobre la lisina disponible para ninguno de los tratamientos. El efecto específico de los ácidos quedo demostrado tanto por la fuerte reducción de la solubilidad de la PB como por el aumento de la PB indegradada frente al tratamiento con agua. En conjunto, los resultados de este experimento mostraron que la eficacia de estos tratamientos depende del tipo y dosis de ácido y de su dilución, así como de las condiciones de secado. Como tratamiento de mayor interés a aplicar posteriormente en el experimento 2 se consideró una dosis de 0,8 eq/kg de harina, aplicada en un volumen de 400 ml/kg (correspondiente a soluciones 1 M y 0,67 M para los ácidos málico y ortofosfórico, respectivamente) y desecación a 150 ºC. El experimento 2 (capítulos 3 a 7) se realizó con un diseño en cuadrado latino 3x3, empleando tres corderos canulados en rumen y duodeno y tres dietas isoproteicas: U, M y P, que incluían harinas de girasol sin tratar (control) y tratadas con acido málico u ortofosfórico, respectivamente. La harina de girasol se trató en las condiciones ya indicadas siendo necesarias 6 horas para su secado en estufa. Las dietas incluían 40% de heno de raigrás italiano y 60% de concentrado a base de harina de girasol (tratada y/o sin tratar), trigo y corrector vitamínico-mineral, siendo suministradas a 75 g/kg P0.75 (equivalente a 2,3 × mantenimiento). La relación harina de girasol sin tratar y tratada fue de 100:0 en la dieta U y entorno a 40:60 en las dietas M y P. Tras 10 días de adaptación a la dieta, se estudiaron sucesivamente: i) el tránsito hasta el duodeno de las partículas del heno (solo en la dieta control) y de la harina de girasol marcadas previamente con europio e iterbio, respectivamente; ii) la fermentación ruminal durante el periodo postprandial, iii) la degradación ruminal in situ de la harina de girasol específica de cada dieta (y del trigo y el heno en la dieta control) y iv) la magnitud y composición del contenido ruminal mediante el vaciado manual del rumen-retículo. Durante todo el periodo experimental se infundio de forma continua una solución de sulfato amónico enriquecido en 15N (98 átomos %) para corregir la contaminación microbiana ruminal en los estudios in situ y para establecer las diferencias de composición química entre las bacterias libres (BAL) y adherentes (BAS) del rumen. Esta solución incluyó en los dos últimos días Li-Cr- EDTA para determinar la tasa de dilución ruminal. Posteriormente, y tras un periodo de al menos 10 días para eliminar el enriquecimiento en 15N de la digesta, se estudió la digestibilidad intestinal de los distintos alimentos mediante la técnica de bolsas móviles. La determinación del bypass (BP) o de la degradabilidad efectiva (DE) de la materia seca (MS) y de la PB se realizó por el método tradicional de integración matemática; estos valores se obtuvieron también para la PB y los AAs generando una muestra representativa del flujo post-ruminal del alimento en estudio en cada animal. Ello se realizó mediante la mezcla de los distintos residuos de incubación en base a la función que describe el flujo de alimento indegradado que abandona el rumen. Todos estos trabajos se realizaron considerando la tasa de salida de partículas del rumen (kp) y, según casos, considerando también la tasa de conminución y mezcla de las partículas en este compartimento (kc). Para este último caso se ha desarrollado también el modelo matemático que describe este flujo y permite este cálculo. Los valores no corregidos por la contaminación microbiana del BP (o de DE) de la PB resultantes de ambos métodos se han comparado tanto en las harinas de girasol como en los restantes alimentos de la dieta, obteniéndose valores similares, sin apreciarse desviaciones sistemáticas. Sobre las muestras compuestas representativas de la composición química del BP se determino la digestibilidad intestinal efectiva (DIE) de la MS, PB y AAs. Todos los valores resultantes de esta técnica fueron corregidos para la contaminación microbiana de las partículas que tiene lugar en el rumen. Los estudios de transito digestivo se realizaron tras suministrar en el comedero a los corderos una dosis simple de los alimentos marcados, seguida de la toma de muestras de la digesta duodenal durante 82 h. En la dieta testigo se suministraron simultáneamente el heno de raigrás y la harina de girasol, mientras que en las otras dietas solo se suministró esta última. La harina de girasol mostro un mayor valor para kc frente al heno (0,5766 v. 0,0892, /h), mientras que no hubo diferencias entre los dos alimentos para kp (0,0623 v. 0,0609, /h). Para la harina de girasol no se apreciaron diferencias entre dietas para kc, pero si se redujo de manera moderada la tasa kp con los tratamientos, siendo ésta también menor al utilizar ácido ortofosfórico frente al uso de ácido malico (0,0577 v. 0,0600, /h). El empleo de las harinas tratadas no modifico los parámetros de fermentación ruminal, la composición de los contenidos ruminales o la tasa de dilución del rumen. Los valores efectivos del BP y de DIE de la MS, PB y AAs de las harinas de girasol se obtuvieron considerando kc y kp, conjuntamente. Los tratamientos de protección incrementaron el BP de MS y PB en 48,5 y 268% de media, respectivamente. Estos incrementos se debieron principalmente al descenso de la fracción soluble y de la velocidad de degradación, pero también al aumento de la fracción indegradable, especialmente usando ácido ortofosfórico. Con los tratamientos se incrementó también la DIE de la MS (108% de media) y de la PB con gran diferencia entre los ácidos málico y ortofosfórico (20,7 v. 11,8%). Como consecuencia de estos cambios la protección aumentó la fracción realmente digerida en el intestino en 211% (MS) y 325% (PB), sin efectos entre ambos ácidos. Considerando la reducción del suministro de energía fermentable para los microorganismos ruminales asociada a la protección y los parámetros indicados por el sistema PDI francés para la síntesis de proteína microbiana digestible, la eficacia de conversión de PB en proteína metabolizable aumentó de 0,244 a 0,559 y 0,515 con el tratamiento con acido málico y ortofosfórico, respectivamente. El contenido en aminoácidos (AAs) fue similar en todas las harinas salvo por una disminución de lisina en las harinas tratadas. De forma análoga a la PB, los tratamientos de protección incrementaron el BP y la DIE de la mayoría de AAs. El aporte de AAs metabolizabes de la harina se multiplico en 3,87 para los AAs azufrados y en menor medida (2,5 veces) para la lisina, como consecuencia de las pérdidas sufridas a consecuencia del tratamiento térmico. Estos tratamientos se muestran, por tanto, útiles para incrementar el valor proteico de la harina de girasol, si bien su empleo junto con concentrados proteicos ricos en lisina bypass digestible mejoraría el perfil de la proteína metabolizable. La corrección de la contaminación microbiana de las partículas que tiene lugar en el rumen se asoció en todos los alimentos testados y, de forma general, con reducciones del BP y de su DIE en todas las fracciones estudiadas. Estas reducciones fueron pequeñas en todos los concentrados, de forma acorde con los muy pequeños niveles de contaminación registrados tanto en las harinas de girasol como en el grano de trigo. Por el contrario, esta contaminación, al igual que los efectos de su corrección, fueron muy importantes en el heno de raigrás. Esta contaminación aumentó al tener en cuenta kc. Así, para la proporción de PB de origen microbiano existente en las muestras compuestas representativas del BP, este aumento fue significativo para el heno de raigrás (0,463 v. 0,706) y solo numérico para la harina de girasol (0,0170 v. 0,0208). La reducción de las estimas de DIE al corregir esta contaminación fue consecuencia de la eliminación de forma casi completa de los microorganismos adherentes en todos los residuos testados. Así, esta biomasa se redujo en 96,1% como media de 7x3 observaciones. Como resultado de las diferencias acumulativas a nivel del rumen e intestino, la no corrección de la contaminación microbiana junto con la no consideración de kc condujo a fuertes sobrestimaciones de la PB digerida en el intestino. Ésta fue de 39% en la harina de girasol (0,146 v. 0,105) y de 761% en el heno de raigrás (0,373 v. 0,0433). Estos resultados muestran que es necesario considerar tanto kc como corregir la contaminación microbiana para obtener estimas in situ precisas en forrajes, mientras que en concentrados, siempre que la contaminación microbiana sea pequeña, es más importante considerar kc. La elevada contaminación microbiana observada en el heno de raigrás se asoció también con importantes errores a nivel del N asociado a la fibra neutro (FND) y ácido (FAD) detergente (NDIN y ADIN, respectivamente) e incluso de estas fracciones de fibra, evidenciándose que estos métodos no eliminan completamente la contaminación microbiana que sufren los alimentos en su paso por el retículorumen. Así, en la muestra compuesta representativa de la composición química del flujo postruminal antes descrita, la sobrevaloración por no corregir la contaminación microbiana fue de 99,8; 24,2; 3,34 y 0,48% para NDIN, ADIN, FND y FAD, respectivamente. Las subvaloraciones asociadas para su DE fueron 34,1; 8,79; 4,41 y 0,51%, respectivamente. La DE corregida del NDIN y ADIN (0,743 y 0,728, respectivamente) mostró un aprovechamiento ruminal elevado de estos compuestos, si bien menor al de la PB total (0,85). El estudio de este aprovechamiento sobre los residuos de incubación ruminal a 6 y 72 h demostró, además, una más rápida degradación del ADIN frente al NDIN, así como un mayor potencial de degradación de este último en este alimento. Para comprobar si la digestión en el abomaso eliminaba la contaminación microbiana en la FND y FAD se estudio esta contaminación y sus posibles errores en muestras liofilizadas de contenidos ruminales y duodenales correspondientes a una dieta mixta de similar composición a la utilizada en el experimento 2, comparándose, además, las diferencias entre la extracción secuencial o directa de la FAD. Utilizando como referencia las BAS se apreciaron elevadas contaminaciones en la FND y FAD y su N asociado tanto en las muestras ruminales como en las duodenales. Sin embargo, los resultados de enriquecimiento en 15N de las partículas fueron intermedios entre los correspondientes a BAS y BAL lo que evidencia una elevada contaminación con BAL en estas muestras probablemente durante el proceso de liofilización. Ello conlleva una sobrevaloración de esta estimación. El método de extracción directa de FAD se mostró, por otra parte, marcadamente menos eficaz en la eliminación de la contaminación microbiana. Los resultados muestran la necesidad de corregir la contaminación microbiana para obtener estimaciones precisas de la degradabilidad de las proteínas de las paredes celulares vegetales. Estos errores deberían ser también considerados para FND y FAD en estudios in situ e in vivo. La elevada tasa fraccional de degradación del grano de trigo (60,9 y 42,0%/h para MS y PB, respectivamente) implico que su flujo de material indegradado (calculado solo en base a la kp obtenida para la harina de girasol) se redujera muy rápidamente, de forma que es casi nulo a 8 h tras la ingestión. Los valores corregidos de PB digerida en el intestino (0,15) representan solo el 18,7% de la proteína metabolizable, lo que muestra que el valor proteico del grano de trigo está estrechamente ligado a la síntesis de proteína microbiana derivada de su fermentación. En el experimento 2 se observaron menores concentraciones para materia orgánica, lípidos y PB, así como en la proporción N-AAs/N total en BAL que en BAS, siendo, por el contrario, mayor su enriquecimiento en 15N. Estos últimos resultados se utilizaron (junto con los de otros trabajos previos de este equipo) para validar una predicción preexistente del enriquecimiento en 15N de las BAS a partir de este valor en las BAL. Esta ecuación, de muy alta precisión (R2 = 0.995), permite calcular la subvaloración que se comete en los aportes de nutrientes correspondientes a las BAS al usar las BAL como muestra de referencia. Esta subvaloración representa aproximadamente 21, 32,5 y 60% para PB, proteína verdadera y lípidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde la aparición del turborreactor, el motor aeróbico con turbomaquinaria ha demostrado unas prestaciones excepcionales en los regímenes subsónico y supersónico bajo. No obstante, la operación a velocidades superiores requiere sistemas más complejos y pesados, lo cual ha imposibilitado la ejecución de estos conceptos. Los recientes avances tecnológicos, especialmente en materiales ligeros, han restablecido el interés por los motores de ciclo combinado. La simulación numérica de estos nuevos conceptos es esencial para estimar las prestaciones de la planta propulsiva, así como para abordar las dificultades de integración entre célula y motor durante las primeras etapas de diseño. Al mismo tiempo, la evaluación de estos extraordinarios motores requiere una metodología de análisis distinta. La tesis doctoral versa sobre el diseño y el análisis de los mencionados conceptos propulsivos mediante el modelado numérico y la simulación dinámica con herramientas de vanguardia. Las distintas arquitecturas presentadas por los ciclos combinados basados en sendos turborreactor y motor cohete, así como los diversos sistemas comprendidos en cada uno de ellos, hacen necesario establecer una referencia común para su evaluación. Es más, la tendencia actual hacia aeronaves "más eléctricas" requiere una nueva métrica para juzgar la aptitud de un proceso de generación de empuje en el que coexisten diversas formas de energía. A este respecto, la combinación del Primer y Segundo Principios define, en un marco de referencia absoluto, la calidad de la trasferencia de energía entre los diferentes sistemas. Esta idea, que se ha estado empleando desde hace mucho tiempo en el análisis de plantas de potencia terrestres, ha sido extendida para relacionar la misión de la aeronave con la ineficiencia de cada proceso involucrado en la generación de empuje. La metodología se ilustra mediante el estudio del motor de ciclo combinado variable de una aeronave para el crucero a Mach 5. El diseño de un acelerador de ciclo combinado basado en el turborreactor sirve para subrayar la importancia de la integración del motor y la célula. El diseño está limitado por la trayectoria ascensional y el espacio disponible en la aeronave de crucero supersónico. Posteriormente se calculan las prestaciones instaladas de la planta propulsiva en función de la velocidad y la altitud de vuelo y los parámetros de control del motor: relación de compresión, relación aire/combustible y área de garganta. ABSTRACT Since the advent of the turbojet, the air-breathing engine with rotating machinery has demonstrated exceptional performance in the subsonic and low supersonic regimes. However, the operation at higher speeds requires further system complexity and weight, which so far has impeded the realization of these concepts. Recent technology developments, especially in lightweight materials, have restored the interest towards combined-cycle engines. The numerical simulation of these new concepts is essential at the early design stages to compute a first estimate of the engine performance in addition to addressing airframe-engine integration issues. In parallel, a different analysis methodology is required to evaluate these unconventional engines. The doctoral thesis concerns the design and analysis of the aforementioned engine concepts by means of numerical modeling and dynamic simulation with state-of-the-art tools. A common reference is needed to evaluate the different architectures of the turbine and the rocket-based combined-cycle engines as well as the various systems within each one of them. Furthermore, the actual trend towards more electric aircraft necessitates a common metric to judge the suitability of a thrust generation process where different forms of energy coexist. In line with this, the combination of the First and the Second Laws yields the quality of the energy being transferred between the systems on an absolute reference frame. This idea, which has been since long applied to the analysis of on-ground power plants, was extended here to relate the aircraft mission with the inefficiency of every process related to the thrust generation. The methodology is illustrated with the study of a variable- combined-cycle engine for a Mach 5 cruise aircraft. The design of a turbine-based combined-cycle booster serves to highlight the importance of the engine-airframe integration. The design is constrained by the ascent trajectory and the allocated space in the supersonic cruise aircraft. The installed performance of the propulsive plant is then computed as a function of the flight speed and altitude and the engine control parameters: pressure ratio, air-to-fuel ratio and throat area.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La planificación de la movilidad sostenible urbana es una tarea compleja que implica un alto grado de incertidumbre debido al horizonte de planificación a largo plazo, la amplia gama de paquetes de políticas posibles, la necesidad de una aplicación efectiva y eficiente, la gran escala geográfica, la necesidad de considerar objetivos económicos, sociales y ambientales, y la respuesta del viajero a los diferentes cursos de acción y su aceptabilidad política (Shiftan et al., 2003). Además, con las tendencias inevitables en motorización y urbanización, la demanda de terrenos y recursos de movilidad en las ciudades está aumentando dramáticamente. Como consecuencia de ello, los problemas de congestión de tráfico, deterioro ambiental, contaminación del aire, consumo de energía, desigualdades en la comunidad, etc. se hacen más y más críticos para la sociedad. Esta situación no es estable a largo plazo. Para enfrentarse a estos desafíos y conseguir un desarrollo sostenible, es necesario considerar una estrategia de planificación urbana a largo plazo, que aborde las necesarias implicaciones potencialmente importantes. Esta tesis contribuye a las herramientas de evaluación a largo plazo de la movilidad urbana estableciendo una metodología innovadora para el análisis y optimización de dos tipos de medidas de gestión de la demanda del transporte (TDM). La metodología nueva realizado se basa en la flexibilización de la toma de decisiones basadas en utilidad, integrando diversos mecanismos de decisión contrariedad‐anticipada y combinados utilidad‐contrariedad en un marco integral de planificación del transporte. La metodología propuesta incluye dos aspectos principales: 1) La construcción de escenarios con una o varias medidas TDM usando el método de encuesta que incorpora la teoría “regret”. La construcción de escenarios para este trabajo se hace para considerar específicamente la implementación de cada medida TDM en el marco temporal y marco espacial. Al final, se construyen 13 escenarios TDM en términos del más deseable, el más posible y el de menor grado de “regret” como resultado de una encuesta en dos rondas a expertos en el tema. 2) A continuación se procede al desarrollo de un marco de evaluación estratégica, basado en un Análisis Multicriterio de Toma de Decisiones (Multicriteria Decision Analysis, MCDA) y en un modelo “regret”. Este marco de evaluación se utiliza para comparar la contribución de los distintos escenarios TDM a la movilidad sostenible y para determinar el mejor escenario utilizando no sólo el valor objetivo de utilidad objetivo obtenido en el análisis orientado a utilidad MCDA, sino también el valor de “regret” que se calcula por medio del modelo “regret” MCDA. La función objetivo del MCDA se integra en un modelo de interacción de uso del suelo y transporte que se usa para optimizar y evaluar los impactos a largo plazo de los escenarios TDM previamente construidos. Un modelo de “regret”, llamado “referencedependent regret model (RDRM)” (modelo de contrariedad dependiente de referencias), se ha adaptado para analizar la contribución de cada escenario TDM desde un punto de vista subjetivo. La validación de la metodología se realiza mediante su aplicación a un caso de estudio en la provincia de Madrid. La metodología propuesta define pues un procedimiento técnico detallado para la evaluación de los impactos estratégicos de la aplicación de medidas de gestión de la demanda en el transporte, que se considera que constituye una herramienta de planificación útil, transparente y flexible, tanto para los planificadores como para los responsables de la gestión del transporte. Planning sustainable urban mobility is a complex task involving a high degree of uncertainty due to the long‐term planning horizon, the wide spectrum of potential policy packages, the need for effective and efficient implementation, the large geographical scale, the necessity to consider economic, social, and environmental goals, and the traveller’s response to the various action courses and their political acceptability (Shiftan et al., 2003). Moreover, with the inevitable trends on motorisation and urbanisation, the demand for land and mobility in cities is growing dramatically. Consequently, the problems of traffic congestion, environmental deterioration, air pollution, energy consumption, and community inequity etc., are becoming more and more critical for the society (EU, 2011). Certainly, this course is not sustainable in the long term. To address this challenge and achieve sustainable development, a long‐term perspective strategic urban plan, with its potentially important implications, should be established. This thesis contributes on assessing long‐term urban mobility by establishing an innovative methodology for optimizing and evaluating two types of transport demand management measures (TDM). The new methodology aims at relaxing the utility‐based decision‐making assumption by embedding anticipated‐regret and combined utilityregret decision mechanisms in an integrated transport planning framework. The proposed methodology includes two major aspects: 1) Construction of policy scenarios within a single measure or combined TDM policy‐packages using the survey method incorporating the regret theory. The purpose of building the TDM scenarios in this work is to address the specific implementation in terms of time frame and geographic scale for each TDM measure. Finally, 13 TDM scenarios are built in terms of the most desirable, the most expected and the least regret choice by means of the two‐round Delphi based survey. 2) Development of the combined utility‐regret analysis framework based on multicriteria decision analysis (MCDA). This assessment framework is used to compare the contribution of the TDM scenario towards sustainable mobility and to determine the best scenario considering not only the objective utility value obtained from the utilitybased MCDA, but also a regret value that is calculated via a regret‐based MCDA. The objective function of the utility‐based MCDA is integrated in a land use and transport interaction model and is used for optimizing and assessing the long term impacts of the constructed TDM scenarios. A regret based model, called referente dependent regret model (RDRM) is adapted to analyse the contribution of each TDM scenario in terms of a subjective point of view. The suggested methodology is implemented and validated in the case of Madrid. It defines a comprehensive technical procedure for assessing strategic effects of transport demand management measures, which can be useful, transparent and flexible planning tool both for planners and decision‐makers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introducción. Las enfermedades cardiovasculares (ECV) son la principal causa de muerte en nuestro país. Entre los factores independientes más importantes para el desarrollo de ECV se encuentran en primer lugar las alteraciones del perfil lipídico como el aumento del colesterol total (TC), las lipoproteínas de baja densidad (LDL) y los triglicéridos (TG) y/o la disminución de las lipoproteínas de alta densidad (HDL). Entre las diferentes formas de abordar el problema para prevenir y tratar estas patologías se encuentra la modificación de los hábitos de vida a través de un programa combinado de dieta y ejercicio. La evidencia confirma la efectividad de la primera variable, sin embargo, en el empleo del ejercicio se encuentran discrepancias acerca de cuál es el modo más eficaz para mejorar el perfil lipídico. Objetivo. Estudiar los cambios en las variables del perfil lipídico y los índices lipoproteicos comparando cuatro tipos de intervención que combinan dieta y diferentes modos de ejercicio, así como, analizar otras variables independientes (género, edad y genotipo ApoE) que pueden tener influencia sobre estos cambios. Diseño de la investigación. Los datos analizados en esta tesis forman parte del estudio “PROgramas de Nutrición y Actividad Física para el tratamiento de la obesidad” (PRONAF). Se trata de un estudio clínico desarrollado en España entre el 2008 y el 2011. La metodología del estudio nos permite comparar cuatro tipos de intervención para la pérdida de peso y evaluar su impacto sobre el perfil lipídico. El diseño fue experimental aleatorizado donde a todos los participantes se les sometió a un programa de dieta equilibrada hipocalórica junto a uno de los tres modos de ejercicio (grupo de entrenamiento de fuerza, grupo de entrenamiento de resistencia y grupo de entrenamiento combinado de los modos anteriores; los cuales fueron igualados en volumen e intensidad) o grupo de recomendaciones de actividad física. Las principales variables analizadas en los estudios que comprende esta tesis doctoral fueron: HDL, LDL, TG y TC, los índices derivados de estas y variables de la composición corporal y del entrenamiento. Conclusiones. Los cuatro tipos de intervención mostraron ser favorables para mejorar las variables del perfil lipídico y los índices lipoproteicos, sin diferencias significativas entre ellos. Tras la intervención, los varones mostraron una respuesta más favorable en los cambios del perfil lipídico. El genotipo ApoE2 obtuvo una reducción mayor en la concentración de TG y TC que el genotipo ApoE3 y ApoE4. Por último, los índices lipoproteicos mejoraron tras un programa de pérdida de peso, obteniéndose mayores cambios en el grupo de dieta más entrenamiento aeróbico para los índices ApoB/ApoA-1, TG/HDL y LDL/ApoB. ABSTRACT Introduction. The main cause of death in our country is cardiovascular disease (CVD). The most important independent factors for the development of CVD are the lipid profile alterations: increased total cholesterol (TC), low density lipoprotein (LDL) and triglycerides (TG) and/or decreased high-density lipoprotein (HDL). Among the different approaches to prevent and treat these diseases is modifying the lifestyle combining a diet and exercise program. The evidence confirms the effectiveness of the first variable, however, there is still controversy about the most effective mode of exercise combined with diet to achieve improvements. Objective. To study changes in lipoprotein profile comparing four types of intervention combining diet with different modes of exercise, and to analyze the independent variables (gender, age, and ApoE genotype) that can influence these changes. Research design. The data analized in this thesis are part of the study Nutrition and Physical Activity Programs for Obesity Treatments (the PRONAF study according to its Spanish initials). This is a clinical research carried out in Spain between 2008 and 2011. The aim of this study was to compare four types of intervention to weight loss with diet combining exercise. The design was experimental randomized where all participants were subjected to follow a hypocaloric balanced diet along one of the three modes of exercise (strength training group, resistance training group and combined training group of the above modes, which were matched by volume and intensity) or physical activity recommendations group. The main variables under investigation in this thesis were: HDL, LDL, TG and TC, the lipoprotein ratios, body composition and training variables. Main outcomes. The four types of interventions shown to be favorable to improve the lipid profile and lipoprotein level, with no significant differences between intervention groups. After the intervention, the men showed a more favorable respond in lipid profile changes. The genotype ApoE2 obtained more positive changes in the concentration of TG and TC than ApoE3 and ApoE4 genotype. Last, the lipoprotein ratios improve after weight loss treatment with diet combined different modes exercise. Our results reflected greater changes for E group in apoB/ApoA1, TG/HDL and LDL/ApoB compared within different intervention groups.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente documento, evalúa y analiza el ruido existente en las inmediaciones del CEIS (Centro Estudio, Innovación y Servicios), situado en la carretera Villaviciosa de Odón a Móstoles (M-856) en el Km 1,5. El objetivo es obtener datos de nivel de ruido en función del tiempo para conocer su variabilidad a lo largo de la semana, para promover una intercomparación entre laboratorios con ruido real. La zona que contempla el proyecto tiene variedad de ruido medioambiental: ruido de tráfico rodado, ruido industrial, ruido de instalaciones y ruido de tráfico aéreo. Estas fuentes de ruido pueden presentarse en diversas combinaciones. Para el ruido total existente, se analiza por un lado el ruido específico de la carretera M-856, y por otro lado el ruido residual asociado a sucesos aislados, como el ruido de tráfico aéreo, ruido industrial y de instalaciones. Para el cálculo de los niveles sonoros de la zona se realiza una evaluación del índice de ruido Ld, para el periodo de día, utilizando como herramienta de cálculo el programa CadnaA versión 4.2. Se realiza la validación de los niveles sonoros obtenidos en el CadnaA en las inmediaciones de la carretera Villaviciosa de Odón a Móstoles. Para ello se comparan los niveles obtenidos en el modelo acústico de la zona elaborado mediante CadnaA y los niveles medidos “in-situ”. Una vez obtenidos los niveles sonoros, se calcula la incertidumbre de las medidas ejecutadas “in-situ” en la última jornada de mediciones realizada, correspondientes a niveles de presión sonora continuos equivalente ponderado A (LAeq, 5min) y de las medidas simuladas en CadnaA , teniendo en cuenta las posibles desviaciones ocasionadas por el equipo de medida, condiciones meteorológicas, variaciones del tráfico, metodología de ensayo..... Por último se valoran los datos obtenidos y se evalúa la posibilidad de promover una intercomparación entre laboratorios realizada con el ruido real de tráfico de la zona. ABSTRACT. The next document evaluates the noise in sorrounding areas of CEIS (Centro Estudio, Innovación y Servicios), located in the road from Villaviciosa de Odón to Móstoles (M-856), in 1.5 km. The aim of this project is to get precise information during time to promove an intercomparation between laboratories with real noise. The area included in the project has several environmental noise: traffic noise, industrial noise and air traffic noise. These noise sources can be combined in different ways. The specific noise of the M-856 on one hand, and the residual noise associated with air traffic noise and industrial noise on the other. The calculation tool CadnaA, 4.2 version, simulates sound levels for the day period and the index Ld. The validation of sound levels around the road Villaviciosa de Odon to Móstoles, is made by comparing the obtained levels in the acoustic model and the real measured levels “in situ” . The uncertainty of the measures "in-situ", and the uncertainty of the sound levels simulated in the acoustic model CadnaA, is calculated using the measurements “in situ” (LAeq, 5min) of the last day. For that calculation, is necessary to take into account the deviations resulting from the measurement equipment, weather conditions, traffic variations, test methodology.... Finally the obtained data are evaluated, considering the possibility of promote an intercomparison between laboratories with real traffic noise of the area.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El hormigón estructural sigue siendo sin duda uno de los materiales más utilizados en construcción debido a su resistencia, rigidez y flexibilidad para diseñar estructuras. El cálculo de estructuras de hormigón, utilizando vigas y vigas-columna, es complejo debido a los fenómenos de acoplamiento entre esfuerzos y al comportamiento no lineal del material. Los modelos más empleados para su análisis son el de Bernoulli-Euler y el de Timoshenko, indicándose en la literatura la conveniencia de usar el segundo cuando la relación canto/luz no es pequeña o los elementos están fuertemente armados. El objetivo fundamental de esta tesis es el análisis de elementos viga y viga-columna en régimen no lineal con deformación por cortante, aplicando el concepto de Pieza Lineal Equivalente (PLE). Concepto éste que consiste básicamente en resolver el problema de una pieza en régimen no lineal, transformándolo en uno lineal equivalente, de modo que ambas piezas tengan la misma deformada y los mismos esfuerzos. Para ello, se hizo en primer lugar un estudio comparado de: las distintas propuestas que aplican la deformación por cortante, de los distintos modelos constitutivos y seccionales del hormigón estructural y de los métodos de cálculo no lineal aplicando el método de elementos finitos (MEF). Teniendo en cuenta que la resolución del problema no lineal se basa en la resolución de sucesivos problemas lineales empleando un proceso de homotopía, los problemas lineales de la viga y viga-columna de Timoshenko, se resuelven mediante MEF, utilizando soluciones nodalmente exactas (SNE) y acción repartida equivalente de cualquier orden. Se obtiene así, con muy pocos elementos finitos, una excelente aproximación de la solución, no sólo en los nodos sino en el interior de los elementos. Se introduce el concepto PLE para el análisis de una barra, de material no lineal, sometida a acciones axiales, y se extiende el mismo para el análisis no lineal de vigas y vigas-columna con deformación por cortante. Cabe señalar que para estos últimos, la solución de una pieza en régimen no lineal es igual a la de una en régimen lineal, cuyas rigideces son constantes a trozos, y donde además hay que añadir momentos y cargas puntuales ficticias en los nodos, así como, un momento distribuido ficticio en toda la pieza. Se han desarrollado dos métodos para el análisis: uno para problemas isostáticos y otro general, aplicable tanto a problemas isostáticos como hiperestáticos. El primero determina de entrada la PLE, realizándose a continuación el cálculo por MEF-SNE de dicha pieza, que ahora está en régimen lineal. El general utiliza una homotopía que transforma de manera iterativa, unas leyes constitutivas lineales en las leyes no lineales del material. Cuando se combina con el MEF, la pieza lineal equivalente y la solución del problema original quedan determinadas al final de todo el proceso. Si bien el método general es un procedimiento próximo al de Newton- Raphson, presenta sobre éste la ventaja de permitir visualizar las deformaciones de la pieza en régimen no lineal, de manera tanto cualitativa como cuantitativa, ya que es posible observar en cada paso del proceso la modificación de rigideces (a flexión y cortante) y asimismo la evolución de las acciones ficticias. Por otra parte, los resultados obtenidos comparados con los publicados en la literatura, indican que el concepto PLE ofrece una forma directa y eficiente para analizar con muy buena precisión los problemas asociados a vigas y vigas-columna en las que por su tipología los efectos del cortante no pueden ser despreciados. ABSTRACT The structural concrete clearly remains the most used material in construction due to its strength, rigidity and structural design flexibility. The calculation of concrete structures using beams and beam-column is complex as consequence of the coupling phenomena between stresses and of its nonlinear behaviour. The models most commonly used for analysis are the Bernoulli-Euler and Timoshenko. The second model is strongly recommended when the relationship thickness/span is not small or in case the elements are heavily reinforced. The main objective of this thesis is to analyse the beam and beam-column elements with shear deformation in nonlinear regime, applying the concept of Equivalent Linear Structural Element (ELSE). This concept is basically to solve the problem of a structural element in nonlinear regime, transforming it into an equivalent linear structural element, so that both elements have the same deformations and the same stresses. Firstly, a comparative study of the various proposals of applying shear deformation, of various constitutive and sectional models of structural concrete, and of the nonlinear calculation methods (using finite element methods) was carried out. Considering that the resolution of nonlinear problem is based on solving the successive linear problem, using homotopy process, the linear problem of Timoshenko beam and beam-columns is resolved by FEM, using the exact nodal solutions (ENS) and equivalent distributed load of any order. Thus, the accurate solution approximation can be obtained with very few finite elements for not only nodes, but also for inside of elements. The concept ELSE is introduced to analyse a bar of nonlinear material, subjected to axial forces. The same bar is then used for other nonlinear beam and beam-column analysis with shear deformation. It is noted that, for the last analyses, the solution of a structural element in nonlinear regime is equal to that of linear regime, in which the piecewise-stiffness is constant, the moments and fictitious point loads need to be added at nodes of each element, as well as the fictitious distributed moment on element. Two methods have been developed for analysis: one for isostatic problem and other more general, applicable for both isostatic and hiperstatic problem. The first method determines the ELSE, and then the calculation of this piece is performed by FEM-ENS that now is in linear regime. The general method uses the homotopy that transforms iteratively linear constitutive laws into nonlinear laws of material. When combined with FEM, the ELSE and the solution of the original problem are determined at the end of the whole process. The general method is well known as a procedure closed to Newton-Raphson procedure but presents an advantage that allows displaying deformations of the piece in nonlinear regime, in both qualitative and quantitative way. Since it is possible to observe the modification of stiffness (flexural and shear) in each step of process and also the evolution of the fictitious actions. Moreover, the results compared with those published in the literature indicate that the ELSE concept offers a direct and efficient way to analyze with very good accuracy the problems associated with beams and beams columns in which, by typology, the effects of shear cannot be neglected.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La combustión mediante lazo químico permite una integración de captura de CO2 en una planta térmica de potencia sin penalización energética. Se alcanza una menor destrucción exergética, alcanzándose un rendimiento térmico idóneo. Este proyecto se centra en el estudio del rendimiento energético en una planta de potencia con gasificación integrada cuando la cámara de combustión de las turbinas de gas se sustituye por un sistema de combustión CLC. Después del diseño termodinámico y optimización de algunos parámetros del ciclo, el rendimiento de la planta de potencia es evaluado bajo distintas condiciones de trabajo y comparado con el que se obtendría en una planta de ciclo combinado convencional con gasificación integrada y captura pre-combustión. Abstract Chemical-looping combustion allows an integration of CO2 capture in a thermal power plant without energy penalty. A less exergy destruction in the combustion chemical transformation is achieved, leading to a greater overall thermal efficiency. This Project focus on the study of the energetic performance in a cycle power plant with integrated gasification when the chamber combustion is supplied by a combustion system CLC. After thermodynamic modeling and optimization of some cycle parameters, the power plant performance is evaluated under diverse working conditions and compared to a conventional integrated gasification combined cycle with pre-combustion capture.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El diseño de una antena reflectarray bajo la aproximación de periodicidad local requiere la determinación de la matriz de scattering de estructuras multicapa con metalizaciones periódicas para un gran número de geometrías diferentes. Por lo tanto, a la hora de diseñar antenas reflectarray en tiempos de CPU razonables, se necesitan herramientas númericas rápidas y precisas para el análisis de las estructuras periódicas multicapa. En esta tesis se aplica la versión Galerkin del Método de los Momentos (MDM) en el dominio espectral al análisis de las estructuras periódicas multicapa necesarias para el diseño de antenas reflectarray basadas en parches apilados o en dipolos paralelos coplanares. Desgraciadamente, la aplicación de este método numérico involucra el cálculo de series dobles infinitas, y mientras que algunas series convergen muy rápidamente, otras lo hacen muy lentamente. Para aliviar este problema, en esta tesis se propone un novedoso MDM espectral-espacial para el análisis de las estructuras periódicas multicapa, en el cual las series rápidamente convergente se calculan en el dominio espectral, y las series lentamente convergentes se calculan en el dominio espacial mediante una versión mejorada de la formulación de ecuaciones integrales de potenciales mixtos (EIPM) del MDM. Esta versión mejorada se basa en la interpolación eficiente de las funciones de Green multicapa periódicas, y en el cálculo eficiente de las integrales singulares que conducen a los elementos de la matriz del MDM. El novedoso método híbrido espectral-espacial y el tradicional MDM en el dominio espectral se han comparado en el caso de los elementos reflectarray basado en parches apilados. Las simulaciones numéricas han demostrado que el tiempo de CPU requerido por el MDM híbrido es alrededor de unas 60 veces más rápido que el requerido por el tradicional MDM en el dominio espectral para una precisión de dos cifras significativas. El uso combinado de elementos reflectarray con parches apilados y técnicas de optimización de banda ancha ha hecho posible diseñar antenas reflectarray de transmisiónrecepción (Tx-Rx) y polarización dual para aplicaciones de espacio con requisitos muy restrictivos. Desgraciadamente, el nivel de aislamiento entre las polarizaciones ortogonales en antenas DBS (típicamente 30 dB) es demasiado exigente para ser conseguido con las antenas basadas en parches apilados. Además, el uso de elementos reflectarray con parches apilados conlleva procesos de fabricación complejos y costosos. En esta tesis se investigan varias configuraciones de elementos reflectarray basadas en conjuntos de dipolos paralelos con el fin de superar los inconvenientes que presenta el elemento basado en parches apilados. Primeramente, se propone un elemento consistente en dos conjuntos apilados ortogonales de tres dipolos paralelos para aplicaciones de polarización dual. Se ha diseñado, fabricado y medido una antena basada en este elemento, y los resultados obtenidos para la antena indican que tiene unas altas prestaciones en términos de ancho de banda, pérdidas, eficiencia y discriminación contrapolar, además de requerir un proceso de fabricación mucho más sencillo que el de las antenas basadas en tres parches apilados. Desgraciadamente, el elemento basado en dos conjuntos ortogonales de tres dipolos paralelos no proporciona suficientes grados de libertad para diseñar antenas reflectarray de transmisión-recepción (Tx-Rx) de polarización dual para aplicaciones de espacio por medio de técnicas de optimización de banda ancha. Por este motivo, en la tesis se propone un nuevo elemento reflectarray que proporciona los grados de libertad suficientes para cada polarización. El nuevo elemento consiste en dos conjuntos ortogonales de cuatro dipolos paralelos. Cada conjunto contiene tres dipolos coplanares y un dipolo apilado. Para poder acomodar los dos conjuntos de dipolos en una sola celda de la antena reflectarray, el conjunto de dipolos de una polarización está desplazado medio período con respecto al conjunto de dipolos de la otra polarización. Este hecho permite usar solamente dos niveles de metalización para cada elemento de la antena, lo cual simplifica el proceso de fabricación como en el caso del elemento basados en dos conjuntos de tres dipolos paralelos coplanares. Una antena de doble polarización y doble banda (Tx-Rx) basada en el nuevo elemento ha sido diseñada, fabricada y medida. La antena muestra muy buenas presentaciones en las dos bandas de frecuencia con muy bajos niveles de polarización cruzada. Simulaciones numéricas presentadas en la tesis muestran que estos bajos de niveles de polarización cruzada se pueden reducir todavía más si se llevan a cabo pequeñas rotaciones de los dos conjuntos de dipolos asociados a cada polarización. ABSTRACT The design of a reflectarray antenna under the local periodicity assumption requires the determination of the scattering matrix of a multilayered structure with periodic metallizations for quite a large number of different geometries. Therefore, in order to design reflectarray antennas within reasonable CPU times, fast and accurate numerical tools for the analysis of the periodic multilayered structures are required. In this thesis the Galerkin’s version of the Method of Moments (MoM) in the spectral domain is applied to the analysis of the periodic multilayered structures involved in the design of reflectarray antennas made of either stacked patches or coplanar parallel dipoles. Unfortunately, this numerical approach involves the computation of double infinite summations, and whereas some of these summations converge very fast, some others converge very slowly. In order to alleviate this problem, in the thesis a novel hybrid MoM spectral-spatial domain approach is proposed for the analysis of the periodic multilayered structures. In the novel approach, whereas the fast convergent summations are computed in the spectral domain, the slowly convergent summations are computed by means of an enhanced Mixed Potential Integral Equation (MPIE) formulation of the MoM in the spatial domain. This enhanced formulation is based on the efficient interpolation of the multilayered periodic Green’s functions, and on the efficient computation of the singular integrals leading to the MoM matrix entries. The novel hybrid spectral-spatial MoM code and the standard spectral domain MoM code have both been compared in the case of reflectarray elements based on multilayered stacked patches. Numerical simulations have shown that the CPU time required by the hybrid MoM is around 60 times smaller than that required by the standard spectral MoM for an accuracy of two significant figures. The combined use of reflectarray elements based on stacked patches and wideband optimization techniques has made it possible to design dual polarization transmit-receive (Tx-Rx) reflectarrays for space applications with stringent requirements. Unfortunately, the required level of isolation between orthogonal polarizations in DBS antennas (typically 30 dB) is hard to achieve with the configuration of stacked patches. Moreover, the use of reflectarrays based on stacked patches leads to a complex and expensive manufacturing process. In this thesis, we investigate several configurations of reflectarray elements based on sets of parallel dipoles that try to overcome the drawbacks introduced by the element based on stacked patches. First, an element based on two stacked orthogonal sets of three coplanar parallel dipoles is proposed for dual polarization applications. An antenna made of this element has been designed, manufactured and measured, and the results obtained show that the antenna presents a high performance in terms of bandwidth, losses, efficiency and cross-polarization discrimination, while the manufacturing process is cheaper and simpler than that of the antennas made of stacked patches. Unfortunately, the element based on two sets of three coplanar parallel dipoles does not provide enough degrees of freedom to design dual-polarization transmit-receive (Tx-Rx) reflectarray antennas for space applications by means of wideband optimization techniques. For this reason, in the thesis a new reflectarray element is proposed which does provide enough degrees of freedom for each polarization. This new element consists of two orthogonal sets of four parallel dipoles, each set containing three coplanar dipoles and one stacked dipole. In order to accommodate the two sets of dipoles in each reflectarray cell, the set of dipoles for one polarization is shifted half a period from the set of dipoles for the other polarization. This also makes it possible to use only two levels of metallization for the reflectarray element, which simplifies the manufacturing process as in the case of the reflectarray element based on two sets of three parallel dipoles. A dual polarization dual-band (Tx-Rx) reflectarray antenna based on the new element has been designed, manufactured and measured. The antenna shows a very good performance in both Tx and Rx frequency bands with very low levels of cross-polarization. Numerical simulations carried out in the thesis have shown that the low levels of cross-polarization can be even made smaller by means of small rotations of the two sets of dipoles associated to each polarization.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cinchona officinalis (Rubiaceae), especie endémica del Valle de Loja, ubicado en la región sur del Ecuador, es un recurso forestal de importancia medicinal y ecológica, además la especie ha sido catalogada como planta nacional y es un ícono de la región sur por su aporte a la farmacopea mundial. Esta especie, entre los siglos XVII-XIX sufrió una gran presión en sus poblaciones debido a la extracción masiva de la corteza para la cura del paludismo. Aunque la actividad extractiva generó grandes ingresos a la Corona Española y a la región Sur del Ecuador, ésta fue poco o nada sustentable ecológicamente, provocando la desaparición de la especie en muchos sitios de la provincia, pues, en su momento, no se consideraron alternativas de recuperación de las poblaciones naturales. Actualmente la extracción y consumo de la corteza en la zona de origen es baja o nula, sin embargo esta zona enfrenta nuevas amenazas. La deforestación a causa de proyectos de desarrollo en infraestructuras, la práctica de actividades agrícolas y de ganadería, y los efectos del cambio climático han ocasionado, en estos últimos años, la fragmentación de los ecosistemas. La mayoría de los bosques del sur del Ecuador se han convertido en parches aislados (los bosques en los que se distribuye C. officinalis no son la excepción) siendo esta la principal causa para que la especie se encuentre en estado de amenaza. Los individuos de la especie tienen una alta capacidad de rebrote y producen semillas durante todo el año; sin embargo la capacidad germinativa y la tasa de sobrevivencia son bajas, además de estas dificultades la especie requiere de la asociación con otras especies vegetales para su desarrollo, lo cual ha limitado su distribución en pequeños parches aislados. Con esta problemática, la recuperación natural de las poblaciones es una necesidad evidente. Varios trabajos y esfuerzos previos se han realizado a nivel local: i. Identificación de la distribución actual y potencial; ii. Determinación de la fenología y fructificación iii. Programas de educación ambiental, iv. Análisis moleculares para determinar la diversidad genética. v. Ensayos de propagación vegetativa; y otras acciones de tipo cultural. No obstante, el estado de conservación y manejo de las poblaciones naturales no ha mejorado significativamente, siendo necesaria la aplicación de estrategias integradas de conservación in situ y ex situ, que permitan la recuperación y permanencia de las poblaciones naturales a largo plazo. El presente trabajo tiene como fin dar alternativas para el cultivo de tejidos in vitro de Cinchona officinalis centrados en la propagación masiva a partir de semillas, análisis de la fidelidad genética y alternativas de conservación de tejidos. Los objetivos específicos que se plantean son: i. Analizar el proceso de germinación y proliferación in vitro. ii. Evaluar la estabilidad genética en explantes cultivados in vitro, mediante marcadores ISSR. iii. Establecer protocolos de conservación in vitro mediante limitación del crecimiento y criopreservación de segmentos nodales y yemas. Los resultados más significativos de esta investigación fueron: i. El desarrollo de protocolos eficientes para mejorar los porcentajes de germinación y la proliferación de brotes en explantos cultivados in vitro. Para evaluar el efecto de los fenoles sobre la germinación, se determinó el contenido total de fenoles y el porcentaje de germinación en semillas de C. officinalis comparados con una especie de control, C. pubescens. Para inducir a proliferación, se utilizaron segmentos nodales de plántulas germinadas in vitro en medio Gamborg (1968) suplementado con diferentes combinaciones de reguladores de crecimiento (auxinas y citoquininas). Los resultados obtenidos sugieren que el contenido de compuestos fenólicos es alto en las semillas de C. officinalis en comparación con las semillas de C. pubescens. Estos fenoles pueden eliminarse con peróxido de hidrógeno o con lavados de agua para estimular la germinación. La formación de nuevos brotes y callos en la mayoría de las combinaciones de reguladores de crecimiento se observó en un período de 45 días. El mayor porcentaje de proliferación de brotes, formación de callos y presencia de brotes adventicios se obtuvo en medio Gamborg (B5) suplementado con 5.0 mg/l 6-bencil-aminopurina y 3.0 mg/l de ácido indol-3-butírico. ii. La evaluación de la fidelidad genética de los explantes obtenidos con distintas combinaciones de reguladores de crecimiento vegetal y diversos subcultivos. Se realizó el seguimiento a los explantes obtenidos de la fase anterior, determinando el índice de multiplicación y analizando la fidelidad genética de los tejidos obtenidos por las dos vías regenerativas: brotación directa y regeneración de brotes a partir de callos. Este análisis se realizó por amplificación mediante PCR de las secuencias ubicadas entre microsatélites-ISSR (Inter simple sequence repeat). El medio Gamborg (B5) con 3.0 mg/l de AIB y 5.0 mg/l de BAP usado como medio de inducción en la primera etapa de cultivo generó el mayor índice de proliferación (11.5). Un total de 13 marcadores ISSR fueron analizados, 6 de éstos fueron polimórficos. El mayor porcentaje de variación somaclonal fue inducido en presencia de 1.0 mg/l 2,4-D combinado con 0.2 mg/l Kin con un 1.8% en el segundo sub-cultivo de regeneración, la cual incrementó a 3.6% en el tercer sub-cultivo. Todas las combinaciones con presencia de 2,4-D produjeron la formación de callos y presentaron variación genética. Por su parte la fidelidad genética se mantuvo en los sistemas de propagación directa a través de la formación de brotes a partir de meristemos preformados. iii. El establecimiento de protocolos de conservación in vitro y crioconservación de segmentos nodales y yemas. Para la conservación limitando el crecimiento, se cultivaron segmentos nodales en los medios MS y B5 en tres concentraciones de sus componentes (25, 50 y 100%); y en medio B5 más agentes osmóticos como el manitol, sorbitol y sacarosa en diferentes concentraciones (2, 4 y 8%); los cultivos se mantuvieron por 12 meses sin subcultivos. Para el establecimiento de protocolos para la crioconservación (paralización del metabolismo) se usaron yemas axilares y apicales a las cuales se les aplicaron los métodos de encapsulación-deshidratación y vitrificación. La efectividad de los protocolos usados se determinó en función de la sobrevivencia, reducción del crecimiento y regeneración. Los resultados obtenidos en este apartado reflejan que un crecimiento limitado puede mantener tejidos durante 12 meses de almacenamiento, usando medio B5 más manitol entre 2 y 8%. En los protocolos de crioconservación, se obtuvo el mayor porcentaje de recuperación tras la congelación en NL en el tratamiento control seguido por el método crioprotector de encapsulación-deshidratación. Este trabajo brinda alternativas para la propagación de C. officinalis bajo condiciones in vitro, partiendo de material vegetal con alta diversidad genética. El material propagado puede ser fuente de germoplasma para la recuperación y reforzamiento de las poblaciones naturales así como una alternativa de producción para las comunidades locales debido a la demanda actual de corteza de la zona de origen para la elaboración de agua tónica. ABSTRACT Cinchona officinalis (Rubiaceae) is endemic to the Loja Valley, located in the southern area of Ecuador. The importance of this plant as medical and ecological resource is so great that it has been designated as the national flower and is an icon of the southern region for its contribution to the world pharmacopoeia. Between XVII-XIX centuries its population suffered great reduction due to massive harvesting of the bark to cure malaria. Although extraction activity generated large revenues to the Spanish Crown and the southern region of Ecuador, this was not ecologically sustainable, causing the disappearance of the species in many areas of the province, because during that time alternatives to prevent extinction and recover natural populations were not taken in account. Currently the extraction and consumption of bark in the area of origin is almost absent, but this species faces new threats. Deforestation due to infrastructure development, the practice of farming and ranching, and the effects of climate change had led to the fragmentation of ecosystems during the recent years. Most of the forests of southern Ecuador have become isolated patches, including those where C. officinalis is diffused. The lack of suitable habitat is today the main threat for the species. The species has a high capacity for regeneration and produces seeds throughout the year, but the germination rate is low and the growth is slow. In addition, the species requires the association with other plant species to develop. All these factors had limited its distribution to small isolated patches. The natural recovery of populations is essential to face this problem. Several studies and previous efforts had been made at local level: i. Identification of current and potential distribution; ii. Phenology determination. iii. Environmental education programs, iv. Molecular analisis to determine the genetic diversity. v. Testing of vegetative propagation; and other actions of cultural nature. Despite these efforts, the state of conservation and management of natural populations has not improved significantly. Implementation of integrated in situ and ex situ conservation strategies for the recovery and permanence of long-term natural populations is still needed. This work aims to provide alternatives for in vitro culture of tissue of Cinchona officinalis focused on mass propagation from seeds, genetic fidelity analysis and tissue conservation alternatives. The specific aims are: i. Analyze the process of germination and proliferation in vitro. ii. To evaluate the genetic stability of the explants cultured in vitro by ISSR markers. iii. Establish protocols for in vitro conservation by limiting growth and cryopreservation of nodal segments and buds. The most significant results of this research were: i. The development of efficient protocols to improve germination rates and proliferation of buds in explants cultured in vitro. To study the effect of phenols on germination, the total phenolic content and percentage germination was measured in C. officinalis and in a control species, C. pubescens, for comparison. The content of phenolic compounds in C. officinalis seeds is higher than in C. pubescens. These phenols can be removed with hydrogen peroxide or water washes to stimulate germination. To analyze the regeneration, we used nodal explants from seedlings germinated in vitro on Gamborg medium (1968) supplemented with different combinations of growth regulators (auxins and cytokinins) to induce proliferation. The formation of new shoots and calluses was observed within a period of 45 days in most combinations of growth regulators. The highest percentage of shoot proliferation, callus formation and adventitious buds were obtained in B5 medium supplemented with 5.0 mg/l 6-benzyl-aminopurine and 3.0 mg/l indole-3-butyric acid. ii. Evaluating genetic fidelity explants obtained with various combinations of plant growth regulators and different subcultures. The genetic fidelity was analyzed in tissues obtained by the two regenerative pathways: direct sprouting and shoot regeneration from callus. This analysis was performed by PCR amplification of the sequences located between microsatellite-ISSR (Inter Simple Sequence Repeat). Among a total of 13 ISSR markers analyzed, 6 were polymorphic. The highest percentage of somaclonal variation was induced in the presence of 1.0 mg/l 2,4-D combined with 0.2 mg/l Kin with 1.8% in the second round of regeneration, and increased to 3.6% in the third round. The presence of 2,4-D induced genetic variation in all the combinations of growth regulators. Meanwhile genetic fidelity remained systems propagation through direct shoot formation from meristems preformed. iii. Establishing conservation protocols in vitro and cryoconservation of nodal segments and buds. For medium-term conservation (limited growth) nodal segments were cultured in MS and B5 media at three concentrations (25, 50 and 100%); we tested B5 medium with different concentrations of osmotic agents such as mannitol, sorbitol and sucrose (2, 4 and 8%); cultures were maintained for 12 months with regular subculturing. To establish protocols for cryoconservation (cessation of metabolism) different methods of encapsulation-dehydration and vitrification were applied to axillary and apical buds. The effectiveness of the used protocols is determined based on the survival, growth and regeneration success. The results show that these tissues can be maintained in storage for 12 months, using B5 medium plus mannitol between 2 and 8%. The cryoconservation protocol with highest percentage of recovery was obtained by contral treatment, followed by freezing in NL with encapsulation-dehydration method. This work provides alternatives for the propagation in vitro of C. officinalis, starting from plant material with high genetic diversity. The obtained material represents a source of germplasm to support the recovery and strengthening of natural populations as well as a creation of alternative sources for local communities due to the current demand of bark for the preparation of tonic water.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La importantísima expansión urbana que sufren las principales ciudades de los países en vías de desarrollo, es el mayor reto que afronta la habitabilidad a nivel mundial. Dentro de la teoría general de la Habitabilidad Básica (HaB-ETSAM-UPM, 1995) la ordenación del territorio y el planeamiento urbanístico son las herramientas determinantes para orientar coherentemente los procesos de urbanización, como se reconoce también desde las principales esferas técnicas a nivel internacional. Pero tales herramientas deben enfocarse a una construcción eficiente del territorio, actuando desde una aproximación multidisciplinar, flexible y directa, que incida en las prioridades específicas de cada contexto. Para ello, resulta fundamental comprender a fondo las realidades específicas de estos ámbitos. La ciudad es un fenómeno complejo en esencia. El tejido construido, en constante proceso de cambio, es el caparazón visible que alberga una maravillosa mezcla entrelazada de espacios, funciones, flujos, personas.... Cada ciudad, diferente y única, se integra en su medio, se adapta a geografías, contextos y climas distintos, evoluciona según dinámicas propias, en incomprensibles (o casi) procesos evolutivos. El estudio de la ciudad, supone siempre una simplificación de la misma. La realidad urbana, por detallado que sea nuestro análisis, siempre contendrá indescifrables relaciones que se nos escapan. En cambio, necesitamos de métodos analíticos que nos ayuden a comprender algo esa complejidad. Acercarnos en ese análisis, es un paso previo fundamental para la formulación de respuestas. En este plano, de avance en la comprensión del hecho urbano, se sitúa este trabajo. Se pone el acento en el enfoque cuantitativo, profundizando en datos básicos concretos, siempre aceptando de partida que esta información es una componente mínima, pero esperamos que sustantiva, de un fenómeno inabordable. Y es esta búsqueda de comprensión material y cuantitativa de la ciudad, el objetivo esencial de la investigación. Se pretende proporcionar una base detallada de aquéllos aspectos fundamentales, que pueden ser medidos en los entornos urbanos y que nos proporcionan información útil para el diagnóstico y las propuestas. Para ello, se aportan rangos y referencias deseables, a través de una herramienta para la comprensión y la valoración de cada contexto, la Matriz de Indicadores. Esta herramienta se concibe desde la reflexión a la aplicación práctica, a la utilidad directa, al aporte concreto para quien pueda servir. Ésta es la voluntad decidida con la que se aborda este trabajo, centrado en los entornos urbanos donde el aporte técnico es prioritario: la Ciudad Informal. La Ciudad Informal, entendida aquí como aquélla que se desarrolla sin los medios suficientes (técnicos, económicos e institucionales) que proporciona la planificación, aquélla por donde la habitabilidad precaria se extiende. Es la ciudad que predomina en los países en vías de desarrollo, en los contextos de bajos recursos, allí donde, precisamente, se concentran los principales déficits y necesidades a nivel global. El enfoque nace de la teoría de la Habitabilidad Básica, de la definición de mínimos posibles para, desde allí, construir el espacio necesario para el desarrollo humano. Éste es el ámbito genérico objeto del trabajo que, a su vez, se nutre, de forma muy importante, de la experiencia directa en la ciudad de Makeni, en Sierra Leona. Esta ciudad nos sirve de prototipo experimental en un doble sentido. Por un lado, sirve como espacio empírico en el que chequear la metodología de valoración cuantitativa; y, por otro, el conocimiento de esta ciudad de tamaño medio africana, que se ha ido adquiriendo en los últimos cinco años, es una base directa para el desarrollo teórico de la propia metodología, que ayuda a atisbar lo esencial en contextos similares. El encaje de todo este recorrido se ha articulado desde una experiencia académica que, como docente, he coordinado directa e intensamente. Experiencia muy enriquecedora, que ha sumado muchas manos y mucho aprendizaje en este tiempo. Teoría y práctica en planeamiento urbano se alternan en el trabajo, nutriéndose la una de la otra y a la inversa. Trabajo que nace desde la pasión por la ciudad y el urbanismo. Desde la búsqueda por comprender y desde la vocación de actuar, de intentar mejorar y hacer más habitables los entornos urbanos. Especialmente allí donde las dificultades se agolpan y el camino se alarga, se llena de polvo. Acumular preguntas a cada paso. Cada vez más preguntas. Las respuestas, si existen, aparecen entrelazadas en dinámicas indescifrables de las que queremos formar parte. Fundirnos por momentos en la misma búsqueda, acompañarla. Sentirnos cerca de quiénes comienzan de cero casi cada día. Y otra vez, arrancar. Y compartir, desde el conocimiento, si acaso es que se puede. Y la ciudad. Brutal, imponente, asfixiante, maravillosa, imposible. Creación colectiva insuperable, de energías sumadas que se cosen sin patrón aparente. O sin más razón que la del propio pulso de la vida. Así se siente Makeni. ABSTRACT The important urban growth suffering major cities of developing countries, is the biggest challenge facing the global habitability. Within the general theory of Basic Habitability (HAB-ETSAM-UPM, 1995) spatial planning and urban planning are the crucial tools to consistently guide the urbanization process, as also recognized from the main technical areas worldwide. But such tools should focus on an efficient construction of the territory, working from a multidisciplinary, flexible and direct approach, that affects the specific priorities of each context. To do this, it is essential to thoroughly understand the specific realities of these areas. The city is essentially a complex phenomenon. The urban fabric in constant flux, is the visible shell that houses a wonderful mixture interlocking spaces, functions, flows, people.... Every city, different and unique, is integrated into its environment, adapted to geographies, contexts and climates, it evolves according to its own dynamics, along (almost) incomprehensible evolutionary processes. The study of the city, is always a simplification of it. The urban reality, even studied from a detailed analysis, always contain undecipherable relationships that escape us. Instead, we need analytical methods that help us understand something that complexity. Moving forward in this analysis is an essential first step in formulating responses. At this level, progressing in understand the urban reality, is where this work is located. The emphasis on the quantitative approach is placed, delving into specific basic data, starting always accepting that this information is just a minimal component, but we hope that substantive, of an intractable phenomenon. And it is this search for materials and quantitative understanding of the city, the main objective of the research. It is intended to provide a detailed basis of those fundamental aspects that can be measured in urban environments that provide us useful information for the diagnosis and proposals. To do this, desirable ranges and references are provided, through a tool for understanding and appreciation of each context, the Indicator Matrix. This tool is conceived from reflection to practical application, to a direct utility, concrete contribution to who can serve. This is the firm resolve with which this work is addressed, centered in urban environments where the technical contribution is a priority: the Informal City. The Informal City, understood here as the urban areas developed without the sufficient resources (technical, economic and institutional) which planning provides, where it is extended the precarious habitability. It is the city that prevails in developing countries, in low-resource settings, where, precisely, the main gaps and needs in the global context are concentrated. The approach stems from the theory of Basic Habitability, the definition of possible minimum, to build the necessary space for human development. This is the generic scope of the work object, that is also based in the direct experience in the town of Makeni, Sierra Leone. This city serves as an experimental prototype in two ways. On the one hand, it serves as a space where empirically check the quantitative assessment methodology; and, secondly, the knowledge of this African city of medium size, which has been acquired in the last five years, is a direct basis for the theoretical development of the methodology itself, which helps to glimpse the essence in similar contexts. The engagement of this whole journey has been articulated from an academic experience, directly and intensely coordinated as teacher. Enriching experience that has added many hands and much learning at this time. Theory and practice in urban planning are mixed at work, enriching the one of the other and vice versa. Work is born from the passion for the city and urbanism. From the search for understanding and from the vocation of acting, trying to improve and make more livable urban environments. Especially where the difficulties are crowded and the road is so long, full of dust. To accumulate questions at every turn. More and more questions. The answers, if do exist, appears inside indecipherable dynamics in which we want to be involved. Merge at times in the same search. Feel close to those who start from scratch almost every day. And again, move forward. And share, from knowledge, if possible. And the city. Brutal, impressive, suffocating, wonderful, impossible. Unsurpassed collective creation, combined energy mix that are sewn with no apparent pattern. Or for no reason other than the pulse of life itself. As it feels the city of Makeni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El triatlón es un deporte combinado en el que sin solución de continuidad se hace un tramo de nado, en aguas abiertas, seguido por uno de ciclismo, para terminar en carrera a pie. Las distancias son muy variadas, aunque la que nos importa en esta tesis es la de-nominada olímpica: 1.500 metros nadando, 40 km en bicicleta y 10 km en carrera a pie. Es un deporte joven, nació a finales de los 80 y es olímpico solo desde los JJ. OO. de Sídney 2000. Sin embargo, esta juventud le ha hecho crecer con fuerza y con muchas ganas de conocerse por dentro a sí mismo. La elección de este deporte se debe, entre otros factores, a la afinidad personal como entrenador del equipo nacional en dos JJ. OO. Por otro lado, al ser un deporte que se desarrolla al aire libre hace que sus par-ticipantes estén expuestos a los cambios climáticos, por lo que la adaptación a los mismos es un factor que juega a favor de la mejora del rendimiento. Cuando la temperatura del agua donde se nada es baja se permite la utilización de un traje especial de neopreno que aísla de dicha temperatura. Ambos elementos, neopreno y clima, están directamente relacionados con el resultado final de la prueba. El objetivo de la presente investigación es demostrar cómo la utilización del neo-preno influye en el resultado final de la misma y cómo las condiciones de calor también tienen una clara influencia en el resultado de la competición de élite femenino en triatlón olímpico de élite internacional. Realizado el análisis de los resultados de la competición de máximo nivel internacional entre 2005 y 2014 (382) participantes y 2.500 participaciones, claramente, los resultados obtenidos determinan que el uso del neopreno hace que la natación sea más rápida y que el calor influye negativamente en el ritmo de carrera a pie. ABSTRACT Triathlon is a combined sport consisting on open water swimming, cycling and running, one after the other with no stops. Distance of the segments can vary, however this thesis will be focus in the called olympic distance: 1.500 meters swimming, 40 km cycling and 10 km running. It´s a relatively new sport, born in the final 80´s, and olympic since Sydney Olympic Games in 2000. Nevertheless, it´s growing fast and there´s a high inte¬rest in knowing all the aspects of it. The choice of triathlon is due, between other reasons, to the special personal affi¬nity with the sport, coming from being the principal trainer of the Spanish Na¬tional Team in two different Olympic Games (Sydney 2000 and Athens 2004). As an outdoor sport, participants are exposed to weather changes and their adaptation to them plays a role in the final performance. When the water tem-perature in the swimming section is bellow certain degrees (20º C in the case of the olympic distance), a special isolation wetsuit is allowed for swimming. Both elements, weather and wetsuit, are related with the final results. Main goal of this paper is to show the influence of the use of wetsuits in the final results, and how hot weather clearly impacts the result of the female elite races in olympic triathlon. Results from highest performance competitions between 2005 and 2014 has been analysed. 382 participants and 2.500 participations. Results show clearly that the use of a wetsuit makes swimming faster and high temperature makes running slower.