73 resultados para ALMACENES EN CADENA
em Universidad Politécnica de Madrid
Resumo:
La crisis afecta a todos los sectores, es un terremoto en cadena que se inicio en el sector inmobiliario y se ha ido introduciendo en el resto. Todo esto ha dado lugar a una caída brusca de la demanda de los servicios relacionados con la construcción, con un posicionamiento en “espera” de los Promotores e Inversores, que aún tienen liquidez para invertir, buscando oportunidades que lógicamente se tienen que producir en un entorno escasamente fiable como el actual. Aquellos Inversores que vean oportunidades, se aseguraran de que los productos que van a realizar, tengan una demanda suficiente, sus costes estén en consonancia con el mercado, pero sin que aquello perjudique al resultado final, es decir manteniendo la calidad propuesta al inicio del proceso con los costes previstos, dando lugar a un control exhaustivo del producto a realizar, lo cual obligará a una gran profesionalidad por parte de los agentes implicados. Para todo esto habrá que contar con Empresas especializadas, que aporten garantías en este proceso y aseguren tanto al promotor como al Inversor en todo momento donde y en que se invierten sus recursos. La Dirección Integrada de Proyecto (“Project Management “) aplicada al proceso constructivo es una Técnica Metodológica que ayuda a organizar, controlar y gestionar los recursos de los promotores dentro del proceso edificatorio. Cuando los recursos están limitados (que normalmente es la mayoría de las situaciones) gestionarlos de una manera eficiente se convierte en algo muy importante. Bien, pues nos encontramos con que en esta situación actual, los recursos no solo están limitados, si no que son limitados, por lo que un control y un exhaustivo seguimiento de los mismos se convierte no solo en importante si no en fundamental.
Resumo:
En el mundo existen ciertos grupos de población que muestran una hipersensibilidad a determinados alimentos, y cuya ingestión accidental desencadena, una respuesta del tipo “shock” anafiláctico. Esto ha obligado a las empresas alimentarias a estudiar de forma exhaustiva la gestión del riesgo de todos sus productos. El cacahuete es uno de los principales alérgenos en la industria. La espectroscopia NIR se ha utilizado recientemente para analizar la cantidad total de aceite y ácido grasos en cacahuete intacto (Sudaram y colaboradores, 2012). El objetivo de este trabajo es estudiar métodos no destructivos basados en espectroscopia para la detección de trazas de cacahuete en alimentos en polvo, como complemento al método genético reacción en cadena de la polimerasa en tiempo real (Real Time -PCR) desarrollado por el grupo de investigación TRADETBIO de la UCM, en el marco de colaboración en el Campus de Excelencia Internacional Moncloa. Los materiales utilizados fueron cacahuetes de cinco variedades de origen geográfico distinto y sometidas a diferentes tratamientos, proporcionadas por el Instituto de Materiales de Referencia CE, así como leche en polvo, cacao, harina de trigo, y cacahuete de diferentes marcas comerciales. Para todos ellos, se adquirieron dos series de espectros: en el infrarrojo cercano NIR (896-1686 nm), y los extraídos de imágenes hiperespectrales HIS (400-1000nm). La espectroscopia VIS se mostró sensible a las diferencias en el cacahuete en cuanto a su origen y/o tratamiento, ya que inducen cambios en el color, siendo inviable la separación entre los cacahuetes blanqueados, la leche y la harina en esta región espectral. Las principales diferencias entre los cacahuetes y el resto de ingredientes alimentarios se han encontrado en el rango NIR, específicamente en las longitudes de onda de (1207-1210 nm), relacionadas con una región de absorción de los lípidos. El infrarrojo permite 100% de segregación de cualquier tipo de cacahuete respecto al resto de los ingredientes alimentarios. La espectroscopia NIR combinada con las técnicas de imagen (hiperespectral o multiespectral) podría por tanto, ser aplicado para detectar trazas de cacahuetes en alimentos en polvo, no influyendo su origen y/o tratamiento, ya que es capaz de separar cualquier cacahuete del resto de los ingredientes alimentarios. Este método podría ser una técnica de cribado previo al método PCR de elevado coste.
Resumo:
La conciencia de la crisis de la modernidad -que comienza ya a finales del siglo XIX- ha cobrado más experiencia debido al conocimiento de los límites del desarrollo económico, ya que como parecía razonable pensar, también los recursos naturales son finitos. En 1972, el Club de Roma analizó las distintas opciones disponibles para conseguir armonizar el desarrollo sostenible y las limitaciones medioambientales. Fue en 1987 cuando la Comisión Mundial para el Medio Ambiente y el Desarrollo de la ONU definía por primera vez el concepto de desarrollo sostenible. Definición que posteriormente fue incorporada en todos los programas de la ONU y sirvió de eje, por ejemplo, a la Cumbre de la Tierra celebrada en Río de Janeiro en 1992. Parece evidente que satisfacer la demanda energética, fundamentalmente desde la Revolución Industrial en el s XIX, trajo consigo un creciente uso de los combustibles fósiles, con la consiguiente emisión de los gases de efecto invernadero (GEI) y el aumento de la temperatura global media terrestre. Esta temperatura se incrementó en los últimos cien años en una media de 0.74ºC. La mayor parte del incremento observado desde la mitad del siglo XX en esta temperatura media se debe, con una probabilidad de al menos el 90%, al aumento observado en los GEI antropogénicos, siendo uno de ellos el CO2 que proviene de la transformación del carbono de los combustibles fósiles durante su combustión. Ante el creciente uso de los combustibles fósiles, los proyectos CAC, proyectos de captura, transporte y almacenamiento, se presentan como una contribución al desarrollo sostenible ya que se trata de una tecnología que permite mitigar el cambio climático. Para valorar si la tecnología CAC es sostenible, habrá que comprobar si existe o no capacidad para almacenar el CO2 en una cantidad mayor a la de producción y durante el tiempo necesario que impone la evolución de la concentración de CO2 en la atmósfera para mantenerla por debajo de las 450ppmv (concentración de CO2 que propone el Panel Intergubernamental para el Cambio Climático). El desarrollo de los proyectos CAC completos pasa por la necesaria selección de adecuados almacenes de CO2 que sean capaces de soportar los efectos de las presiones de inyección, así como asegurar la capacidad de dichos almacenes y la estanqueidad del CO2 en los mismos. La caracterización geológica de un acuífero susceptible de ser almacén de CO2 debe conducir a determinar las propiedades que dicho almacén posee para asegurar un volumen adecuado de almacenamiento, una inyectabilidad del CO2 en el mismo a un ritmo adecuado y la estanqueidad del CO2 en dicho acuífero a largo plazo. El presente trabajo pretende estudiar los parámetros que tienen influencia en el cálculo de la capacidad del almacén, para lo que en primer lugar se ha desarrollado la tecnología necesaria para llevar a cabo la investigación mediante ensayos de laboratorio. Así, se ha desarrollado una patente, "ATAP, equipo para ensayos petrofísicos (P201231913)", con la que se ha llevado a cabo la parte experimental de este trabajo para la caracterización de los parámetros que tienen influencia en el cálculo de la capacidad del almacén. Una vez desarrollada la tecnología, se aborda el estudio de los distintos parámetros que tienen influencia en la capacidad del almacén realizando ensayos con ATAP. Estos ensayos definen el volumen del almacenamiento, llegándose a la conclusión de que en la determinación de este volumen, juegan un papel importante el alcance de los mecanismos trampa, físicos o químicos, del CO2 en el almacén. Ensayos que definen la capacidad del almacén de "aceptar" o "rechazar" el CO2 inyectado, la inyectabilidad, y por último, ensayos encaminados a determinar posibles fugas que se pueden dar a través de los pozos de inyección, definidos estos como caminos preferenciales de fugas en un almacén subterráneo de CO2. Queda de este modo caracterizada la estanqueidad del CO2 en el acuífero a largo plazo y su influencia obvia en la determinación de la capacidad del almacén. Unido al propósito de la estimación de la capacidad del almacén, se encuentra el propósito de asegurar la estanqueidad de dichos almacenes en el tiempo, y adelantarse a la evolución de la pluma de CO2 en el interior de dichos almacenes. Para cumplir este propósito, se ha desarrollado un modelo dinámico a escala de laboratorio, mediante el programa ECLIPSE 300, con el fin de establecer una metodología para el cálculo de la capacidad estimada del almacén, así como el estudio de la evolución de la pluma de CO2 dentro del acuífero a lo largo del tiempo, partiendo de los resultados obtenidos en los ensayos realizados en ATAP y con la modelización de la probeta de roca almacén empleada en dichos ensayos. Presentamos por tanto un trabajo que establece las bases metodológicas para el estudio de la influencia de distintos parámetros petrofísicos en el cálculo de la capacidad del almacén unidos al desarrollo tecnológico de ATAP y su utilización para la determinación de dichos parámetros aplicables a cada acuífero concreto de estudio. ABSTRACT The crisis of modernity –which begins at the end of 19th Century- has been more important due to the knowledge of the limits of economic development, since it appeared to be thought reasonable, the natural resources are finite. In 1972, The Club of Rome analyzed the different options available in order to harmonize the sustainability and the environment development. It was in 1987 when The Global Commission on The Environment and the Development of UN, defined for the first time the concept of Sustainable Development. This definition that was fully incorporated in all the UN programs and it was useful as an axis, for example, in La Cumbre de la Tierra summit in Río de Janeiro in 1992. It seems obvious to satisfy energetic demand, basically after The Industrial Revolution in 19th Century, which represented an increasing use of fossil fuels, therefore greenhouse gases emission and the increasing of global average temperature. This temperature increased in the last 100 years up to 0.74ºC. The major part of the temperature increase is due to the increase observed in Greenhouse gases with human origin, at least with 90% of probability. The most important gas is the CO2 because of its quantity. In the face of the increasing use of fossil fuels, the CCS projects, Carbon Capture and Storage projects, appear as a contribution of sustainable development since it is a technology for avoiding the climate change. In order to evaluate if CCS technology is sustainable, it will be necessary to prove if the capacity for CO2 storage is available or not in a quantity greater than the production one and during the time necessary to keep the CO2 concentration in the atmosphere lower than 450ppmv (concentration imposed by IPCC). The development of full CCS projects goes through the selection of good CO2 storages that are able to support the effects of pressure injection, and assure the capacity of such storages and the watertightness of CO2. The geological characterization of the aquifer that could be potential CO2 storage should lead to determine the properties that such storage has in order to assure the adequate storage volume, the CO2 injectivity in a good rate, and the watertightness of the CO2 in the long term. The present work aims to study the parameters that have influence on the calculation of storage capacity, and for that purpose the appropriate technology has been developed for carrying out the research by mean of laboratory tests. Thus, a patent has been developed, "ATAP, equipo para ensayos petrofísicos (P201231913)", that has been used for developing the experimental part of this work. Once the technology has been developed, the study of different parameters, that have influence on the capacity of the storage, has been addressed developing different tests in ATAP. These tests define the storage volume which is related to the scope of different CO2 trap mechanisms, physical or chemical, in the storage. Tests that define the capacity of the storage to “accept” or “reject” the injected CO2, the injectivity, and tests led to determine possible leakages through injection wells. In this way we could talk about the watertightness in the aquifer in the long term and its influence on the storage capacity estimation. Together with the purpose of the storage capacity estimation, is the purpose of assuring the watertightness of such storages in the long term and anticipating the evolution of CO2 plume inside such aquifers. In order to fulfill this purpose, a dynamic model has been developed with ECLIPSE 300, for stablishing the methodology for the calculation of storage capacity estimation and the evolution of the CO2 plume, starting out with the tests carried out in ATAP. We present this work that establishes the methodology bases for the study of the influence of different petrophysics parameters in the calculation of the capacity of the storage together with the technological development of ATAP and its utilization for the determination of such parameters applicable to each aquifer.
Resumo:
Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.
Resumo:
La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.
Resumo:
La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.
Resumo:
La presente Tesis constituye un avance en el conocimiento de los efectos de la variabilidad climática en los cultivos en la Península Ibérica (PI). Es bien conocido que la temperatura del océano, particularmente de la región tropical, es una de las variables más convenientes para ser utilizado como predictor climático. Los océanos son considerados como la principal fuente de almacenamiento de calor del planeta debido a la alta capacidad calorífica del agua. Cuando se libera esta energía, altera los regímenes globales de circulación atmosférica por mecanismos de teleconexión. Estos cambios en la circulación general de la atmósfera afectan a la temperatura, precipitación, humedad, viento, etc., a escala regional, los cuales afectan al crecimiento, desarrollo y rendimiento de los cultivos. Para el caso de Europa, esto implica que la variabilidad atmosférica en una región específica se asocia con la variabilidad de otras regiones adyacentes y/o remotas, como consecuencia Europa está siendo afectada por los patrones de circulaciones globales, que a su vez, se ven afectados por patrones oceánicos. El objetivo general de esta tesis es analizar la variabilidad del rendimiento de los cultivos y su relación con la variabilidad climática y teleconexiones, así como evaluar su predictibilidad. Además, esta Tesis tiene como objetivo establecer una metodología para estudiar la predictibilidad de las anomalías del rendimiento de los cultivos. El análisis se centra en trigo y maíz como referencia para otros cultivos de la PI, cultivos de invierno en secano y cultivos de verano en regadío respectivamente. Experimentos de simulación de cultivos utilizando una metodología en cadena de modelos (clima + cultivos) son diseñados para evaluar los impactos de los patrones de variabilidad climática en el rendimiento y su predictibilidad. La presente Tesis se estructura en dos partes: La primera se centra en el análisis de la variabilidad del clima y la segunda es una aplicación de predicción cuantitativa de cosechas. La primera parte está dividida en 3 capítulos y la segundo en un capitulo cubriendo los objetivos específicos del presente trabajo de investigación. Parte I. Análisis de variabilidad climática El primer capítulo muestra un análisis de la variabilidad del rendimiento potencial en una localidad como indicador bioclimático de las teleconexiones de El Niño con Europa, mostrando su importancia en la mejora de predictibilidad tanto en clima como en agricultura. Además, se presenta la metodología elegida para relacionar el rendimiento con las variables atmosféricas y oceánicas. El rendimiento de los cultivos es parcialmente determinado por la variabilidad climática atmosférica, que a su vez depende de los cambios en la temperatura de la superficie del mar (TSM). El Niño es el principal modo de variabilidad interanual de la TSM, y sus efectos se extienden en todo el mundo. Sin embargo, la predictibilidad de estos impactos es controversial, especialmente aquellos asociados con la variabilidad climática Europea, que se ha encontrado que es no estacionaria y no lineal. Este estudio mostró cómo el rendimiento potencial de los cultivos obtenidos a partir de datos de reanálisis y modelos de cultivos sirve como un índice alternativo y más eficaz de las teleconexiones de El Niño, ya que integra las no linealidades entre las variables climáticas en una única serie temporal. Las relaciones entre El Niño y las anomalías de rendimiento de los cultivos son más significativas que las contribuciones individuales de cada una de las variables atmosféricas utilizadas como entrada en el modelo de cultivo. Además, la no estacionariedad entre El Niño y la variabilidad climática europea se detectan con mayor claridad cuando se analiza la variabilidad de los rendimiento de los cultivos. La comprensión de esta relación permite una cierta predictibilidad hasta un año antes de la cosecha del cultivo. Esta predictibilidad no es constante, sino que depende tanto la modulación de la alta y baja frecuencia. En el segundo capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de verano en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de maíz en la PI para todo el siglo veinte, usando un modelo de cultivo calibrado en 5 localidades españolas y datos climáticos de reanálisis para obtener series temporales largas de rendimiento potencial. Este estudio evalúa el uso de datos de reanálisis para obtener series de rendimiento de cultivos que dependen solo del clima, y utilizar estos rendimientos para analizar la influencia de los patrones oceánicos y atmosféricos. Los resultados muestran una gran fiabilidad de los datos de reanálisis. La distribución espacial asociada a la primera componente principal de la variabilidad del rendimiento muestra un comportamiento similar en todos los lugares estudiados de la PI. Se observa una alta correlación lineal entre el índice de El Niño y el rendimiento, pero no es estacionaria en el tiempo. Sin embargo, la relación entre la temperatura del aire y el rendimiento se mantiene constante a lo largo del tiempo, siendo los meses de mayor influencia durante el período de llenado del grano. En cuanto a los patrones atmosféricos, el patrón Escandinavia presentó una influencia significativa en el rendimiento en PI. En el tercer capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de invierno en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de trigo en secano del Noreste (NE) de la PI. La variabilidad climática es el principal motor de los cambios en el crecimiento, desarrollo y rendimiento de los cultivos, especialmente en los sistemas de producción en secano. En la PI, los rendimientos de trigo son fuertemente dependientes de la cantidad de precipitación estacional y la distribución temporal de las mismas durante el periodo de crecimiento del cultivo. La principal fuente de variabilidad interanual de la precipitación en la PI es la Oscilación del Atlántico Norte (NAO), que se ha relacionado, en parte, con los cambios en la temperatura de la superficie del mar en el Pacífico Tropical (El Niño) y el Atlántico Tropical (TNA). La existencia de cierta predictibilidad nos ha animado a analizar la posible predicción de los rendimientos de trigo en la PI utilizando anomalías de TSM como predictor. Para ello, se ha utilizado un modelo de cultivo (calibrado en dos localidades del NE de la PI) y datos climáticos de reanálisis para obtener series temporales largas de rendimiento de trigo alcanzable y relacionar su variabilidad con anomalías de la TSM. Los resultados muestran que El Niño y la TNA influyen en el desarrollo y rendimiento del trigo en el NE de la PI, y estos impactos depende del estado concurrente de la NAO. Aunque la relación cultivo-TSM no es igual durante todo el periodo analizado, se puede explicar por un mecanismo eco-fisiológico estacionario. Durante la segunda mitad del siglo veinte, el calentamiento (enfriamiento) en la superficie del Atlántico tropical se asocia a una fase negativa (positiva) de la NAO, que ejerce una influencia positiva (negativa) en la temperatura mínima y precipitación durante el invierno y, por lo tanto, aumenta (disminuye) el rendimiento de trigo en la PI. En relación con El Niño, la correlación más alta se observó en el período 1981 -2001. En estas décadas, los altos (bajos) rendimientos se asocian con una transición El Niño - La Niña (La Niña - El Niño) o con eventos de El Niño (La Niña) que están finalizando. Para estos eventos, el patrón atmosférica asociada se asemeja a la NAO, que también influye directamente en la temperatura máxima y precipitación experimentadas por el cultivo durante la floración y llenado de grano. Los co- efectos de los dos patrones de teleconexión oceánicos ayudan a aumentar (disminuir) la precipitación y a disminuir (aumentar) la temperatura máxima en PI, por lo tanto el rendimiento de trigo aumenta (disminuye). Parte II. Predicción de cultivos. En el último capítulo se analiza los beneficios potenciales del uso de predicciones climáticas estacionales (por ejemplo de precipitación) en las predicciones de rendimientos de trigo y maíz, y explora métodos para aplicar dichos pronósticos climáticos en modelos de cultivo. Las predicciones climáticas estacionales tienen un gran potencial en las predicciones de cultivos, contribuyendo de esta manera a una mayor eficiencia de la gestión agrícola, seguridad alimentaria y de subsistencia. Los pronósticos climáticos se expresan en diferentes formas, sin embargo todos ellos son probabilísticos. Para ello, se evalúan y aplican dos métodos para desagregar las predicciones climáticas estacionales en datos diarios: 1) un generador climático estocástico condicionado (predictWTD) y 2) un simple re-muestreador basado en las probabilidades del pronóstico (FResampler1). Los dos métodos se evaluaron en un caso de estudio en el que se analizaron los impactos de tres escenarios de predicciones de precipitación estacional (predicción seco, medio y lluvioso) en el rendimiento de trigo en secano, sobre las necesidades de riego y rendimiento de maíz en la PI. Además, se estimó el margen bruto y los riesgos de la producción asociada con las predicciones de precipitación estacional extremas (seca y lluviosa). Los métodos predWTD y FResampler1 usados para desagregar los pronósticos de precipitación estacional en datos diarios, que serán usados como inputs en los modelos de cultivos, proporcionan una predicción comparable. Por lo tanto, ambos métodos parecen opciones factibles/viables para la vinculación de los pronósticos estacionales con modelos de simulación de cultivos para establecer predicciones de rendimiento o las necesidades de riego en el caso de maíz. El análisis del impacto en el margen bruto de los precios del grano de los dos cultivos (trigo y maíz) y el coste de riego (maíz) sugieren que la combinación de los precios de mercado previstos y la predicción climática estacional pueden ser una buena herramienta en la toma de decisiones de los agricultores, especialmente en predicciones secas y/o localidades con baja precipitación anual. Estos métodos permiten cuantificar los beneficios y riesgos de los agricultores ante una predicción climática estacional en la PI. Por lo tanto, seríamos capaces de establecer sistemas de alerta temprana y diseñar estrategias de adaptación del manejo del cultivo para aprovechar las condiciones favorables o reducir los efectos de condiciones adversas. La utilidad potencial de esta Tesis es la aplicación de las relaciones encontradas para predicción de cosechas de la próxima campaña agrícola. Una correcta predicción de los rendimientos podría ayudar a los agricultores a planear con antelación sus prácticas agronómicas y todos los demás aspectos relacionados con el manejo de los cultivos. Esta metodología se puede utilizar también para la predicción de las tendencias futuras de la variabilidad del rendimiento en la PI. Tanto los sectores públicos (mejora de la planificación agrícola) como privados (agricultores, compañías de seguros agrarios) pueden beneficiarse de esta mejora en la predicción de cosechas. ABSTRACT The present thesis constitutes a step forward in advancing of knowledge of the effects of climate variability on crops in the Iberian Peninsula (IP). It is well known that ocean temperature, particularly the tropical ocean, is one of the most convenient variables to be used as climate predictor. Oceans are considered as the principal heat storage of the planet due to the high heat capacity of water. When this energy is released, it alters the global atmospheric circulation regimes by teleconnection1 mechanisms. These changes in the general circulation of the atmosphere affect the regional temperature, precipitation, moisture, wind, etc., and those influence crop growth, development and yield. For the case of Europe, this implies that the atmospheric variability in a specific region is associated with the variability of others adjacent and/or remote regions as a consequence of Europe being affected by global circulations patterns which, in turn, are affected by oceanic patterns. The general objective of this Thesis is to analyze the variability of crop yields at climate time scales and its relation to the climate variability and teleconnections, as well as to evaluate their predictability. Moreover, this Thesis aims to establish a methodology to study the predictability of crop yield anomalies. The analysis focuses on wheat and maize as a reference crops for other field crops in the IP, for winter rainfed crops and summer irrigated crops respectively. Crop simulation experiments using a model chain methodology (climate + crop) are designed to evaluate the impacts of climate variability patterns on yield and its predictability. The present Thesis is structured in two parts. The first part is focused on the climate variability analyses, and the second part is an application of the quantitative crop forecasting for years that fulfill specific conditions identified in the first part. This Thesis is divided into 4 chapters, covering the specific objectives of the present research work. Part I. Climate variability analyses The first chapter shows an analysis of potential yield variability in one location, as a bioclimatic indicator of the El Niño teleconnections with Europe, putting forward its importance for improving predictability in both climate and agriculture. It also presents the chosen methodology to relate yield with atmospheric and oceanic variables. Crop yield is partially determined by atmospheric climate variability, which in turn depends on changes in the sea surface temperature (SST). El Niño is the leading mode of SST interannual variability, and its impacts extend worldwide. Nevertheless, the predictability of these impacts is controversial, especially those associated with European climate variability, which have been found to be non-stationary and non-linear. The study showed how potential2 crop yield obtained from reanalysis data and crop models serves as an alternative and more effective index of El Niño teleconnections because it integrates the nonlinearities between the climate variables in a unique time series. The relationships between El Niño and crop yield anomalies are more significant than the individual contributions of each of the atmospheric variables used as input in the crop model. Additionally, the non-stationarities between El Niño and European climate variability are more clearly detected when analyzing crop-yield variability. The understanding of this relationship allows for some predictability up to one year before the crop is harvested. This predictability is not constant, but depends on both high and low frequency modulation. The second chapter identifies the oceanic and atmospheric patterns of climate variability affecting summer cropping systems in the IP. Moreover, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of maize yield variability in IP for the whole twenty century, using a calibrated crop model at five contrasting Spanish locations and reanalyses climate datasets to obtain long time series of potential yield. The study tests the use of reanalysis data for obtaining only climate dependent time series of simulated crop yield for the whole region, and to use these yield to analyze the influences of oceanic and atmospheric patterns. The results show a good reliability of reanalysis data. The spatial distribution of the leading principal component of yield variability shows a similar behaviour over all the studied locations in the IP. The strong linear correlation between El Niño index and yield is remarkable, being this relation non-stationary on time, although the air temperature-yield relationship remains on time, being the highest influences during grain filling period. Regarding atmospheric patterns, the summer Scandinavian pattern has significant influence on yield in IP. The third chapter identifies the oceanic and atmospheric patterns of climate variability affecting winter cropping systems in the IP. Also, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of rainfed wheat yield variability in IP. Climate variability is the main driver of changes in crop growth, development and yield, especially for rainfed production systems. In IP, wheat yields are strongly dependent on seasonal rainfall amount and temporal distribution of rainfall during the growing season. The major source of precipitation interannual variability in IP is the North Atlantic Oscillation (NAO) which has been related in part with changes in the Tropical Pacific (El Niño) and Atlantic (TNA) sea surface temperature (SST). The existence of some predictability has encouraged us to analyze the possible predictability of the wheat yield in the IP using SSTs anomalies as predictor. For this purpose, a crop model with a site specific calibration for the Northeast of IP and reanalysis climate datasets have been used to obtain long time series of attainable wheat yield and relate their variability with SST anomalies. The results show that El Niño and TNA influence rainfed wheat development and yield in IP and these impacts depend on the concurrent state of the NAO. Although crop-SST relationships do not equally hold on during the whole analyzed period, they can be explained by an understood and stationary ecophysiological mechanism. During the second half of the twenty century, the positive (negative) TNA index is associated to a negative (positive) phase of NAO, which exerts a positive (negative) influence on minimum temperatures (Tmin) and precipitation (Prec) during winter and, thus, yield increases (decreases) in IP. In relation to El Niño, the highest correlation takes place in the period 1981-2001. For these decades, high (low) yields are associated with an El Niño to La Niña (La Niña to El Niño) transitions or to El Niño events finishing. For these events, the regional associated atmospheric pattern resembles the NAO, which also influences directly on the maximum temperatures (Tmax) and precipitation experienced by the crop during flowering and grain filling. The co-effects of the two teleconnection patterns help to increase (decrease) the rainfall and decrease (increase) Tmax in IP, thus on increase (decrease) wheat yield. Part II. Crop forecasting The last chapter analyses the potential benefits for wheat and maize yields prediction from using seasonal climate forecasts (precipitation), and explores methods to apply such a climate forecast to crop models. Seasonal climate prediction has significant potential to contribute to the efficiency of agricultural management, and to food and livelihood security. Climate forecasts come in different forms, but probabilistic. For this purpose, two methods were evaluated and applied for disaggregating seasonal climate forecast into daily weather realizations: 1) a conditioned stochastic weather generator (predictWTD) and 2) a simple forecast probability resampler (FResampler1). The two methods were evaluated in a case study where the impacts of three scenarios of seasonal rainfall forecasts on rainfed wheat yield, on irrigation requirements and yields of maize in IP were analyzed. In addition, we estimated the economic margins and production risks associated with extreme scenarios of seasonal rainfall forecasts (dry and wet). The predWTD and FResampler1 methods used for disaggregating seasonal rainfall forecast into daily data needed by the crop simulation models provided comparable predictability. Therefore both methods seem feasible options for linking seasonal forecasts with crop simulation models for establishing yield forecasts or irrigation water requirements. The analysis of the impact on gross margin of grain prices for both crops and maize irrigation costs suggests the combination of market prices expected and the seasonal climate forecast can be a good tool in farmer’s decision-making, especially on dry forecast and/or in locations with low annual precipitation. These methodologies would allow quantifying the benefits and risks of a seasonal weather forecast to farmers in IP. Therefore, we would be able to establish early warning systems and to design crop management adaptation strategies that take advantage of favorable conditions or reduce the effect of adverse conditions. The potential usefulness of this Thesis is to apply the relationships found to crop forecasting on the next cropping season, suggesting opportunity time windows for the prediction. The methodology can be used as well for the prediction of future trends of IP yield variability. Both public (improvement of agricultural planning) and private (decision support to farmers, insurance companies) sectors may benefit from such an improvement of crop forecasting.
Resumo:
La degradación del suelo ha adquirido una magnitud preocupante. Los métodos tradicionales de descontaminación, son costosos e insuficientes. La fitorremediación representa una alternativa eficaz, de bajo coste, respetuosa con el medio ambiente, que además mejora las propiedades del suelo, si bien ha habido desarrollos relevantes en la última década. Desde el punto de vida científico, el reto principal es descifrar las rutas metabólicas implicadas en respuesta a contaminantes y comprender su regulación. Esta información es imprescindible si aspiramos a mejorar las capacidades naturales de algunas especies vegetales para remediar los suelos contaminados. Los estudios de esta Tesis se han centrado en Populus, el mejor modelo forestal disponible a raíz de la secuenciación de su genoma completo. Por otra parte, Populus tiene una gran capacidad natural para la degradación de contaminantes orgánicos, lo que explica su predominio en los programas forestales de fitorremediación que se desarrollan actualmente. Hemos elegido en concreto al híbrido Populus tremula x P. alba, por la facilidad con que se cultiva y su particular interés biotecnológico. La presente Tesis plantea un estudio comprehensivo de la respuesta molecular a bifenilos policlorados (PCBs), una familia de contaminantes orgánicos persistentes de particular relevancia a escala mundial. Se ha utilizado para ello una aproximación transcriptómica, basada en tecnología RNA-seq, para identificar los genes implicados en el metabolismo de los compuestos in planta y cuantificar sus niveles de activación en distintas situaciones controladas. La tesis pretende asimismo definir el control transcripcional subyacente a la respuesta bioquímica frente a este tipo de contaminantes. Resulta sorprendente que dicha respuesta sea prácticamente desconocida a nivel molecular, a pesar de su gran potencial aplicado en el contexto de la tecnología fitorremediadora. Para desarrollar este proyecto aplicamos a nuestros cultivos de chopo híbridos concentraciones diferentes de Aroclor 1221, una mezcla de PCBs muy utilizada a nivel comercial durante décadas, su uso está prohibido hoy internacionalmente. Y tomamos muestras de RNA a dos concentraciones y dos momentos distintos de exposición al contaminante, generando así una matriz de cuatro elementos con sus controles correspondientes. Con el fin de incrementar la especificidad de nuestro análisis, consideramos sobre todo los genes diferencialmente expresados más significativos según cuatro algoritmos estadísticos distintos. Por otra parte, realizamos análisis funcionales con herramientas bioinformáticas basadas en comparaciones de secuencias y en redes de co-expresión génica. La respuesta de los genes de particular interés fue validada mediante tecnología qRT-PCR (reacción de la polimerasa en cadena cuantitativa en tiempo real). Se trata del primer estudio comprehensivo de la respuesta de un organismo vegetal ante la presencia de PCBs. Este estudio nos ha permitido identificar una cantidad considerable de genes estructurales y reguladores, definiendo nuevos factores de transcripción cuya expresión es proporcional a la concentración de contaminante en el medio o al tiempo de exposición al mismo. Los análisis de correlación nos permiten afirmar en que la respuesta metabólica a PCBs, incluyendo posibles rutas degradadoras, participan en al menos quince factores de transcripción y unas cuarenta proteínas o enzimas que resultan particularmente inducidas. Entre las familias implicadas destacan los citocromos P450, la glutatión transferasas, las deshidrogenasas reductasas (short-chain dehydrogenase reductase) y las proteínas MDR (multi-drug resistance). Mientras que los factores de transcripción encontrados pertenecen a la familia de ZF-TF, MYBs, WRKYs entre otros. También identificamos proteínas de función desconocida que no se habían vinculado previamente a este tipo de respuestas en plantas, como la CSP (cold-shock domain proteins). Para estudiar su posible relación con la presencia de PCBs, se caracterizó un gen de esta familia detectado mediante espectrometría de masas en tándem (MS/MS) a partir de mapas IEF x SDS-PAGE (isoelectro focusing x sodium dodecyl sulphate- polyacrylamide gel electrophoresis) de alta resolución. Mediante qRT-PCR pudimos confirmar la inducción del gen correspondiente, ortólogo a PtCSP4 de P. trichocarpa (Potri.004g172600), en respuesta a Aroclor 1221. El análisis fenotípico de las líneas transgénicas de Arabidopsis thaliana que sobre-expresaba la proteína CSP de chopo híbrido confirmó un papel para la misma tolerancia a PCBs, posiblemente a través de mecanismos reguladores que activan proteínas MDR. Este trabajo, además de aportar datos novedosos sobre los mecanismos moleculares desencadenados por la presencia de un PCB en Populus, utilizado aquí como sistema modelo. Con ello se demuestra el potencial de las especies arbóreas no solo como agentes descontaminantes, ya explotado comercialmente, sino también como fuente potencial de genes interesantes. Entre los genes identificados en esta Tesis hay candidatos evidentes a participar en mecanismos de tolerancia al estrés inducido por la contaminación y también rutas metabólicas degradadores de PCBs. Precisamente la posibilidad de degradar al contaminante confiere particular interés a este tipo de estudios frente a la fitorremediación de metales pesados y otros contaminantes elementales. La comparación de los datos generados en este estudio con estudios análogos que se realicen en el futuro con otras especies y xenobióticos, contribuirán a definir mejor la respuesta de las plantas ante la contaminación orgánica y mejorar su potencial descontaminante. ABSTRACT Soil degradation has acquired a disturbing magnitude. Traditional methods of decontamination are expensive and insufficient. Phytoremediation represent an effective alternative, low cost, respectful of the environment, that also improves soil properties, although there have been relevant developments in the last decade. From a life scientist, the challenge is to decipher the major metabolic pathways involved in response to pollutants and understand their regulation. This information is essential if we desire to enhance the natural abilities of some plant species to remediate contaminated soils. This thesis studies have focused on Populus, the best available forestry model following the sequencing of the entire genome. Moreover, Populus has a natural ability to degrade organic pollutants, which explains its predominance in phytoremediation forestry programs currently being developed. We have chosen specifically to hybrid Populus tremula x P. alba, the ease with which it is grown and its particular biotechnological interest. This thesis presents a comprehensive study of the molecular response to polychlorinated biphenyls (PCBs), a family of persistent organic pollutants of particular relevance worldwide. It has been used for a transcriptomic approach using RNA-seq technology, to identify genes involved in the metabolism of compounds in plant and quantify their levels of activation in different controlled situations. The thesis also aims to define the underlying transcriptional control the biochemical response to these pollutants. It is surprising that the response is virtually unknown at the molecular level, despite its great potential applied in the context of phytoremediation technology. To develop this project we applied our hybrid poplar crops different concentrations of Aroclor 1221, a mixture of PCBs widely used commercially for decades, its use is now banned internationally. And we RNA samples at two different concentrations and times of exposure to the pollutant, generating an array of four elements with their corresponding controls. In order to increase the specificity of our analysis, we consider mainly the most significant differentially expressed genes in four different statistical algorithms. Moreover, functional analyzes conducted with bioinformatics tools based on sequence comparisons and networks gene co-expression. The response of genes of particular interest was validated by qRT-PCR (polymerase reaction chain in real-time quantitative. This is the first comprehensive study of the response of a plant organism in the presence of PCBs. This study allowed us to identify a considerable amount of structural and regulatory genes, defining new transcription factors whose expression is proportional to the concentration of contaminant in the middle or at the time of exposure. Correlation analyzes allow us to affirm that the metabolic response to PCBs, including possible degradative pathways, at least fifteen involved in transcription factors and forty proteins or enzymes which are particularly induced. Among the families involved include cytochromes P450, the glutathione transferases, dehydrogenases reductases (short -chain dehydrogenase reductase) and MDR proteins (multi - drug resistance). While transcription factors belong to the family found ZF-TF, MYBs, WRKYs among others. We also identify proteins of unknown function that had not been previously linked to such responses in plants such as CSP (cold- shock domain proteins). To study their possible relationship with the presence of PCBs, a gene in this family was characterized and was detected by tandem mass spectrometry (MS/MS) from maps IEF x SDS -PAGE (sodium dodecyl isoelectro x sulphate- polyacrylamide gel electrophoresis) of high resolution. By qRT -PCR could confirm the induction of the corresponding gene, ortholog to PtCSP4 of P. trichocarpa (Potri.004g172600), in response to Aroclor 1221. Phenotypic analysis of transgenic Arabidopsis thaliana lines over- expressing the protein CSP poplar hybrid confirmed a role for PCBs same tolerance, possibly through regulatory mechanisms activated MDR proteins. This work, in addition to providing new data on the molecular mechanisms triggered by the presence of PCBs in Populus, used here as a model system. Thus the potential of tree species not only as decontamination agents, and commercially exploited, but also as a potential source of interesting genes is shown. Among the genes identified in this thesis there are evident candidates to participate in tolerance mechanisms to stress induced by pollution and degrading metabolic pathways of PCBs. Precisely the possibility of degrading the pollutant attaches particular interest to this type of study off the phytoremediation of heavy metals and other elemental pollutants. The comparison of the data generated in this study with similar studies carried out in the future with other species and xenobiotics contribute to better define the response of plants to organic pollution and improve their decontamination potential.
Resumo:
El concepto de cadena de valor se ha utilizado para el diagnóstico e identificación de soluciones a los problemas que enfrenta una actividad determinada. En este trabajo de investigación se analiza la cadena de valor desde el enfoque de la integración social y el establecimiento de vínculos entre los actores que intervienen: productores, minoristas, mayoristas, transformadores, comercializadores y organizaciones locales. La metodología usada incluye: 1) identificación del sector; 2) identificación de agentes; 3) análisis de la cadena de valor; 4) análisis de agentes y, 5) estrategia de cooperación. La investigación se realizó en el municipio de Salinas, San Luis Potosí, México. Se obtuvo la información de campo mediante encuestas y entrevistas estructuradas. Los datos señalan que la cadena de valor del sector ovino en Salinas se encuentra en un nivel bajo de competitividad. Además que se encuentra desarticulada en lo que se refiere tanto a las relaciones horizontales como a las verticales. Es recomendable fomentar la capacitación y asistencia técnica en las distintas áreas del manejo de la especie: alimentación, reproducción, transformación del producto y comercialización
Resumo:
El concepto de cadena de valor, se ha desarrollado como respuesta a la necesidad para que las empresas rurales, cumplan con las exigencias de la demanda de productos especializados de alta calidad. En este trabajo se realiza un análisis de la cadena de valor del queso manchego en Cuenca, España; identificando a los agentes y las relaciones entre ellos; en donde se tiene una importante producción de queso manchego con denominación de origen. La investigación se llevó a cabo durante 2008 en la Provincia de Cuenca, España. La metodología que se utiliza incluye las siguientes fases: 1) identificación del sector; 2) identificación de agentes; 3) análisis de la cadena de valor; y 4) análisis de agentes. Los resultados obtenidos presentan que los principales factores que están influyendo en el desarrollo de la cadena de valor son: integración horizontal y vertical, confianza entre agentes, acceso y uso de financiamiento, cumplimiento de normas gubernamentales, cumplimiento de normas de la denominación de origen. Por lo anterior, se concluye que dicha cadena está funcionando correctamente y pueden tomarse elementos de éxito para adecuarse a otros territorios.
Resumo:
El presente documento evalúa la Cuenca Alta del Guadalquivir en busca de posibles estructuras viables como almacenes de CO2, tanto técnica como económicamente. Se lleva a cabo la selección de seis posibles estructuras, de las cuales solo tres han resultado viables atendiendo a criterios técnicos y socio-económicos. De estas tres, se evalúa la viabilidad económica de la de mayor capacidad, obteniendo como resultado que la capacidad estimada es demasiado baja para que sea rentable su uso como almacén de CO2 a nivel comercial en una industria tipo de la Unión Europea. Para ello nos basamos principalmente en la Ley 40/2010 que regula el almacenamiento geológico en nuestro país, el informe GeoCapacity elaborado por el IGME, atlas elaborados por el Departamento de Energía de los Estados Unidos (DOE), y en diversos documentos de carácter económico publicados a nivel Europeo. Este proyecto, está incluido dentro de la Cátedra TecFutura, y forma parte del proyecto AVANZACO2. Por tanto, ha contado con la colaboración de las empresas implicadas en dicho proyecto, Sacyr Vallehermoso y Gessal así como con investigadores de la UPM. En relación con dicho proyecto, se procesaron los datos obtenidos mediante la herramienta informática CO2SITEASSES. ABSTRACT This paper evaluates the Upper basin of the Guadalquivir in the search of viable structures for CO2 storage, both technically and economically. The selection of six possible structures has been made, of which only three have proved to be viable attending to technical an socio-economic criteria. Of these three, we evaluate the economic viability of the larger capacity. In result, the estimated capacity is too low to make it profitable for a commercial use. In order to do this, we rely primarily on the Law 40/2010, which regulate the geological storage in our country, the report GeoCapacity, prepared by the IGME, atlas prepared by de Department of Energy of the United States (DOE) and various economic papers published in Europe. This project is included in the “Cátedra TecFutura” and is part of AVANZACO2 project. Therefore it has enjoyed the cooperation of the companies involved in the project, Sacyr Vallehermoso and Gessal, as well as UPM researchers. Related to this project, the obtained data were processed using the software CO2SITEASSES
Resumo:
El objetivo de este trabajo es analizar la estructura de gobernanza de la cadena de valor territorial en el cluster cerámico español, a través de la comprensión de las funciones anteriores y actuales de los diversos sectores involucrados en el sistema de creación de valor. Por medio de un estudio de casos y el enfoque de la metodología cuantitativa, se explora el cambio de paradigma donde los actores tradicionales de la cadena de valor están perdiendo el control de su contribución al sistema de creación de valor territorial, a la vez que aparecen nuevos actores con una función más estable y prometedora.
Resumo:
El nuevo escenario al que se enfrenta el sector agroalimentario, caracterizado por una mayor complejidad y tecnificación del mismo, hace que la confianza sea un activo importante para su rendimiento y buen funcionamiento. El objetivo de la siguiente investigación es mejorar el sector agroalimentario mediante la confianza. Para ello, se pretende conocer qué elementos se usan para que la confianza aparezca en el sector agroalimentario, tomando el sector desde una perspectiva holística. Para lograr este objetivo se han seguido varias etapas. En primer lugar, se analizaron los conceptos confianza y sector agroalimentario para, posteriormente, mostrar qué aspectos de la confianza habían sido objeto de investigación en dicho sector. Tomando algunas premisas basadas en la economía neoinstitucional se definieron una serie de elementos en los que descansa la confianza. Tomando los estudios de caso como herramienta de metodología cualitativa para validar esos componentes de la confianza se concluye con una definición o marco teórico aplicable a la confianza en el sector agroalimentario. Los componentes más importantes son las personas, las instituciones y los procesos que entre ellos se producen dando lugar a las relaciones. Estas relaciones de confianza se ven condicionadas por el comportamiento y conducta de estos agentes, la satisfacción percibida, la dependencia de otros agentes y el riesgo. Además, para regular y hacer visible estos elementos, la confianza se sirve de instrumentos como los precios, los contratos y los sistemas de calidad, así como de la especificación del producto que es intercambiado Debido a su carácter cualitativo y exploratorio la investigación deja espacio para futuras investigaciones en las que se puedan medir y cuantificar la importancia de estos los elementos. Agrifood sector faces a new scenario featured by a great complexity. The aim of this work is the improvement of agricultural and food sector analyzing trust as a key asset. This work tries to answer on what items, tools or concepts rely trust in agricultural and food sector taking agrifood sector from a holistic perspective. To achieve this goal, qualitative methodology based on case studies analysis is carried out following several stages. First, a deep literature review about the food and agricultural environment and the concept of trust is analyzed. Secondly, a state of the art about how trust in food an agricultural sector has been researched is presented. Next, a scenario which takes some premises derived from neo-institutional economics is depicted. This scenario helps to define a framework for understanding how trust emerges in agrifood sector. Finally using the case studies as a tool to validate the framework the definition for trust is developed as result. Trust in food sector relays on persons, institutions and processes and the resulting relationships between them. Trust relationships are conditioned by the behavior and conduct of these agents, their perceived satisfaction, the dependence on other agents and risk. To regulate and make visible these elements, trust uses tools like prices, contracts and quality systems. The research presents some limitations due its qualitative nature. Further research lines are opened in order to evaluate and measure the relevance of different components of the framework.
Resumo:
El sector porcino ibérico es un sector típicamente español. La imagen que asocia el consumidor a los productos ibéricos es la correspondiente a los productos elaborados a partir de cerdos ibéricos en explotaciones extensivas, (dehesas), y cebados en montanera. Sin embargo, según los datos publicados por el Ministerio de Agricultura, Alimentación y Medio Ambiente, más de un 70 por ciento de los cerdos ibéricos que se producen en España son criados en granjas intensivas. El sector porcino ibérico está en pleno proceso de cambio, tanto por las variaciones que se derivan de la crisis que sufre el sector, como por las modificaciones que se esperan en la norma de calidad, recientemente acordadas. En este entorno en el que existe una reducción importante de los márgenes comerciales en todos los eslabones de la cadena de valor del jamón ibérico de bellota, adquiere importancia el estudio de su estructura y funcionamiento, la determinación de los aspectos que mejoran la eficiencia económica a lo largo de la misma y su concordancia a lo largo de ella. Así mismo, un sector de los consumidores comienza a buscar productos de calidad, se interesa por productos con determinados etiquetados que garantizan la calidad o unas determinadas prácticas de producción y elaboración, como sucede con los productos ecológicos. Existen numerosos estudios sobre distintos aspectos del sector porcino ibérico, realizados por distintas instituciones, como universidades, instituciones privadas y proyectos europeos. En general, se centran en la mejora de la producción de los cerdos ibéricos o en la mejora de la elaboración de los jamones. La novedad de la investigación realizada en la presente Tesis Doctoral reside en el estudio de los aspectos que determinan la mayor eficiencia económica de la cadena de valor del jamón ibérico de bellota de la denominación de origen de Guijuelo, y en las características que aporta al jamón ibérico de bellota la producción ecológica frente a la convencional. Resumen Los objetivos planteados en esta investigación son la mejora de la cadena de valor del jamón ibérico de bellota de la denominación de origen de Guijuelo, mediante el estudio de la problemática estructural y de funcionamiento de la misma. Como objetivos específicos se proponen la mejora de la eficiencia económica en las relaciones comerciales entre los distintos eslabones de la cadena de valor, y el impulso de la oferta de los productos ecológicos de ibérico, mediante el estudio comparativo de las producciones convencionales y ecológicas. Para alcanzar estos objetivos la metodología utilizada es la cadena de valor agroalimentaria, utilizando como herramientas de análisis el método Delphi y la realización de un análisis DAFO del sector porcino ibérico. Las fuentes de información primarias utilizadas proceden por una parte de la colaboración realizada en el proyecto europeo Q-Porkchains, coordinado por el Dr. Jacques H. Trienekens, y por otra parte de los cuestionarios especialmente diseñados para el análisis Delphi realizado. Las fuentes de información secundarias proceden de artículos académicos publicados, de artículos de revistas especializadas en el sector y de informes y estadísticas publicados por el Ministerio de Agricultura, Alimentación y Medio Ambiente. Las conclusiones de la investigación son las siguientes. Las relaciones comerciales de la cadena de valor estudiada están gestionadas, ya que se otorga gran valor a las relaciones comerciales basadas en la confianza, tanto en el aprovisionamiento de productos como en la venta de los mismos en cada eslabón. Sin embargo, no se gestiona adecuadamente la gama de productos que se oferta a lo largo de la cadena de valor, puesto que los eslabones de la misma obtienen diferente eficiencia económica para el mismo producto. Por otra parte, aunque la denominación de origen de Guijuelo es una marca conocida por el consumidor, el esfuerzo por tener una marca colectiva de calidad no ha sido totalmente satisfactorio, en especial para el eslabón de la distribución. Por esta razón, es importante resaltar que es recomendable la creación de una marca propia que cuide la calidad con especial atención, modificando incluso las empresas integrantes de la cadena de valor si el objetivo de calidad no coincide. Es importante garantizar la calidad del producto al consumidor, mediante la trasmisión la información generada por los informes de inspección y certificación realizados por las entidades correspondientes en relación a la norma de calidad de los productos de cerdo ibérico y por el Consejo Regulador de Guijuelo. Se requiere un estudio detallado de los posibles nichos de mercado para llegar a los clientes que buscan un producto de calidad diferenciada como es el jamón ibérico de denominación de origen de Guijuelo. Dentro de los posibles clientes debe tenerse en consideración al colectivo de personas alérgicas, ya que no se encuentran con facilidad en el mercado productos cárnicos de cerdo libres de alérgenos. Por último, la innovación es muy importante en este sector, y pueden ofertarse nuevos productos que ayuden al acortamiento de la cadena de valor, como podría ser la carne fresca de cerdo ibérico de bellota. La producción ecológica de porcino ibérico, en la actualidad no es significativa. El manejo que se realiza de los cerdos ibéricos convencionales de bellota es muy similar al manejo que se realiza de los cerdos ecológicos, salvo en la alimentación que reciben los cerdos ibéricos antes del cebo en montanera y en los medicamentos permitidos en ambas producciones. La producción de porcino ecológico de bellota puede ser interesante para la exportación. Los jamones ibéricos de bellota dispondrían de un sello que garantiza un manejo tradicional –como se realiza en muchas explotaciones extensivas de cerdos ibéricos de bellota-, y que es apreciado por los consumidores de otros países, dispuestos a pagar por productos de calidad diferenciada. Este tipo de producción quizá podría solventar la limitación al ámbito nacional de la norma de calidad de los productos de cerdo ibérico. La falta de claridad y unanimidad en el sector sobre la calidad de los productos de ibéricos que se percibe en los cambios previstos en la legislación, y el interés del eslabón de la industria elaboradora de jamones en calidades no ligadas a producciones extensivas sino intensivas, por su mayor volumen de ventas y sus mejores rendimientos, mueven a los productores de “ibérico puro de bellota” a desmarcarse del sector “ibérico”, donde el peso del producto ibérico cruzado de pienso tiene mucho peso en las decisiones que se toman. The Iberian pork industry is a typically Spanish industry. The associated image by the consumer to these products corresponds to products made from Iberian pigs in extensive farms (meadows), and fattened in open range. However, according to data released by the Ministry of Agriculture, Food and Environment, more than 70 percent of the Iberian pigs produced in Spain are raised on factory farms. The Iberian pork industry is in process of change, both by modifications resulting from the crisis in the sector, and the expected ones in the quality standard, recently agreed. In this environment where there is a significant reduction in trade margins in all links of the value chain of Iberian ham, becomes important to study its structure and operation, identifying the aspects that improve economic efficiency along the value chain and their concordance along it. Likewise, part of the consumers begins searching for quality products, they are interested in certain products that guarantee some sort of quality or production and processing practices, like organic products. There are several studies on various aspects of the Iberian pork industry, made by different institutions, such as universities, private institutions and some European projects. In general, their goal is focused on improving the Iberian hog production or on improving the elaboration of hams. The novelty of the research conducted in this PhD thesis lies in the study of the aspects that determine the economic efficiency of the value chain of Iberian ham from Guijuelo designation of origin, and the comparison between the features that organic or conventional production of Iberian ham brings to it. The objectives propound in this research are the improvement of the value chain of Iberian ham from Guijuelo designation of origin, through the study of its structural and operational problematic. The proposed specific objectives are the improvement of the economic efficiency Resumen in trade relations between the different links in the value chain, and the promotion of the supply of Iberian organic pork products, through the comparative study of conventional and organic productions. In order to achieve these objectives, the used methodology is the agrifood value chain, using as analysis tools the Delphi method, and a SWOT analysis of the Iberian pork industry. The primary sources of information come partly from the collaboration in the European project Q-Porkchains, coordinated by Dr. Jacques Trienekens, and partly from the questionnaires specially designed for the Delphi analysis performed. The secondary sources come from published academic papers, specialized journal articles and reports published by the Ministry of Agriculture, Food and Environment. The research conclusions are as follows. Trade relations in the studied value chain are managed, as it is granted a great value to business relationships based on trust, both in the supply of products and in the sale in each link. However, the portfolio that is offered throughout the value chain is not properly managed, since the economic efficiency obtained for the same product is different in each link. Moreover, although the designation of origin of Guijuelo is a well-known brand, the effort made to acquire a collective quality trademark has not been entirely satisfactory, especially in the distribution link. Due to it, it is important to highlight that it is recommended to create a brand focused on quality, and indeed to change the firms integrating the vale chain, if the goal is not shared by all the companies. It is essential to ensure the quality of the product to the consumer, through the transmission of the available information related to the quality standard of Iberian pork products and of the Guijuelo Regulating Council. A detailed study of potential niche markets is required, in order to reach customers looking for a differentiated quality product as Iberian ham of Guijuelo designation of origin. It should be taken into consideration the group of allergy sufferers as potential customers, as they do not easily find pork products in the market free of allergens. Innovation is very important in this industry, and new products could be commercialized that help to shorten the value chain, as fresh acorn Iberian pork. Nowadays, the organic production of Iberian pork products is not significant. The operation is very similar in both conventional and organic production of Iberian pork products, except in the food received by Iberian hogs and the sort of medicinal treatments allowed in each production. The organic acorn Iberian pork production could be interesting for export. Acorn Iberian hams would have a well-known hallmark, which guarantees a traditional production, -as it is done in many extensive holdings of Iberian acorn-pigs-, and that is appreciated by consumers in other countries This niche of consumers could pay for differentiated quality products. Perhaps, this sort of production could solve the limitation to national scope of the quality standard of Iberian pork products. The lack of clarity and unanimity in the industry on the quality of Iberian pork products has been perceived in the agreed changes of the legislation as well as the interest of the processing industry in hams of quality categories which are not linked to extensive but intensive productions, due to their higher sales volume and better yields. This situation pushed "acorn pure Iberian " pigs farmers to split from the Iberian industry, where the importance of cross Iberian pig from intensive farms is growing so high that they can influence the negotiations and decisions taken inside and outside the industry.
Resumo:
La finalidad última do codificación y decodificación es conseguir que el mensaje reconstituido sea idéntico al original. Sin la teoría de códigos los mensajes binarios se caracterizan por vectores o también por polinomios con coeficientes pertenecientes al cuerpo dé Galois GF [0,l]. Sobre los conceptos de código, código lineal, código cíclico,generación polinómica de códigos, distancia, síndrome, relaciones con los elementos de un cuerpo finito, detección y corrección, etc., el mejor autor de referencia sigue siendo Peterson