1000 resultados para NUTRICION DE LAS PLANTAS
Resumo:
Introducción Desde el descubrimiento de la energía nuclear y sus posibilidades de utilización, la vida de nuestro planeta ha cambiado. La realidad es que el desarrollo del uso de esta energía ha tomado un tiempo relativamente corto, si se considera que lo más significativo se ha realizado en los últimos cincuenta años, Después de las explosiones nucleares durante la segunda guerra mundial, una de las mayores preocupaciones de la humanidad eras si al utilización de la energía nuclear conduciría necesariamente hacia catástrofes como la que se produjeron en Hiroshima y Nagasaky…
Resumo:
El libro-guía incluye un fichero de plantas en el que ofrece una pequeña descripción, su catalogación botánica, usos y virtudes curativas
Resumo:
Se presenta un completo trabajo de estudio en el que el Jardí Botànic de Sóller muestra el análisis realizado sobre el conocimiento popular de la relación existente entre las plantas y el hombre y la utilidad que han proporcionado estas 150 especies que se presentan, en la vida cotidiana y el servicio que siguen dando a las personas. Se quiere dar a conocer el uso tradicional de las plantas y también difundir estos conocimientos a la resta de la sociedad, mediante su protección y conservación, ya que forman parte de la arquitectura natural y crean un paisaje singular, único, que es patrimonio de la humanidad.
Resumo:
Resumen basado en el del autor
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
Camu camu es una fruta nativa de la Amazonía, que llama la atención por el alto contenido de vitamina C (6,116 mg/ 100 g de pulpa), está en proceso de domesticación, por lo cual se está investigando un método de propagación vegetativa que permita avanzar en el proceso de mejoramiento genético. El objetivo de este trabajo fue evaluar la capacidad rizogénica de plantas matrices promisorias de camu camu "Myrciaria dubia (Kunth) McVaugh" según el aumento del número de hojas, mediante la técnica de estacas herbáceas en cámaras de subirrigación. El ensayo fue conducido mediante un Diseño de Bloques Completamente al Azar (DBCA) con arreglo factorial 9Ax3B, con 3 repeticiones y 15 estacas por unidad experimental. El factor A, estuvo constituido por nueve plantas matrices y el factor B: pares de hojas con 3 niveles: 1; 2 y 3 pares. El enraizamiento fue evaluado después de 90 días. Se observó que existió interacción estadística significativa para las variables: porcentaje de enraizamiento, longitud y número de raíces. Para las variables porcentaje de callo y porcentaje de mortalidad se encontró efecto de la planta matriz y pares de hojas. Los resultados muestran que el porcentaje de enraizamiento estuvo influenciado por efectos intrínsecos adherentes a la variabilidad genotípica de las plantas matrices, presentando un alto grado de dispersión, que osciló entre 91,11 % y 0,00 %, mostrando una alta variabilidad y marcada influencia de la planta matriz sobre el proceso de rizogénesis, influyendo de manera altamente significativa en el enraizamiento. Con respecto al área foliar, estacas con 2 y 3 pares de hojas, independiente de la planta matriz, presentaron mayor capacidad de enraizamiento. Con base en estos resultados se concluye que el efecto de la variabilidad genotípica y el área foliar influyen de manera altamente significativa en el proceso de rizogénesis de estacas herbáceas de camu camu.
Resumo:
Con base en información obtenida sobre los nombres de todas las plantas con DAP > 2.5 cm (Diámetro a la Altura del Pecho, medido a una altura de 1.3 m) dentro de 30 parcelas de 0.1 ha cada una, y sobre los suelos, la vegetación y el paisaje a lo largo de 8 transectos (entre 2 y 5 km de longitud cada uno), se describen los aspectos más importantes sobre la taxonomía botánica y el ordenamiento o jerarquización del medio ambiente desde la perspectiva de los Indígenas Miraña de la Amazonía central colombiana. A pesar de la pérdida cultural, algunos pocos ancianos guardan como parte de su tradición oral, los elementos básicos de un sistema complejo de conocimiento de su ambiente natural. Se detectó un alto grado de conocimiento sobre las especies vegetales silvestres, la existencia de sistemas nomenclaturales para éstas y para los suelos, y un reconocimiento organizado de paisajes fisiográficos y tipos de vegetación.
Resumo:
Las infecciones bacterianas están en franco aumento por diversas razones, en especial por la aparición de resistencia a los antibióticos comerciales. Por otro lado los inhibidores de acetilcolinesterasa (AChE) y tirosinasa, ambas enzimas relacionadas con diversas patologías como por ejemplo la enfermedades de Alzheimer o Parkinson, presentan ciertos inconvenientes en especial asociados a su toxicidad. Es por esto que el descubrimiento de nuevas moléculas con acción inhibidora de bacterias y de las mencionadas enzimas es un desafío de muchos investigadores. Las plantas son capaces de sintetizar compuestos que utilizan como sus propias armas de defensa contra el ataque de agentes externos negativos. Esta propiedad puede ser aprovechada por el hombre para la obtención de nuevos medicamentos fitoterápicos. Continuando con la búsqueda de compuestos naturales bioactivos que realiza nuestro grupo de investigación, es nuestro objetivo encontrar nuevos agentes obtenidos a partir de plantas nativas y naturalizadas de la región Central de Argentina efectivos para inhibir bacterias y enzimas asociadas a enfermedades. Estos productos pueden llevar a nuevos medicamentos fitoterápicos o a novedosos líderes para la síntesis de análogos. De esta manera podremos contribuir a mejorar la calidad de vida de los pacientes afectados.
Resumo:
Los productos sintéticos destinados a controlar plagas y enfermedades en los vegetales han tenido un rol muy marcado en el incremento de la producción agrícola,sin embargo el uso continuo e indiscriminado de estas sustancias, ha causado enfermedades, muertes por envenenamiento, ha afectado al medio ambiente acumulándose por bioconcentración en los distintos eslabones de la cadena alimenticia, en el suelo y en el agua, siendo además responsables de la resistencia de distintas plagas y enfermedades. Bajo estas circunstancias nuevas vías de control de plagas deben ser estudiadas. En los últimos años se está retornando al uso de las plantas como fuente de pesticidas mas seguros para el medio ambiente y la salud humana en sustitución de los productos sintéticos. Numerosos componentes del reino vegetal han demostrado ser altamente tóxicos contra un amplio espectro de insectos y microorganismos, lo que puede ser aprovechado para el control de los mismos. Con el objeto de descubrir sustancias naturales pesticidas, a partir de plantas autóctonas de la zona Central de Argentina, que tengan alta probabilidad de ser incorporadas a prácticas y usos agronómicos, se propone realizar un estudio de la potencialidad pesticida de plantas de la Pcia de Córdoba, en dos etapas: 1) detección de insecticidas, herbicidas, fungicidas y bactericidas (contra dos especies por bioactividad) naturales en 80 plantas de Argentina; y 2) aislamiento bioguiado e identificación de los principios activos; caracterización de la bioactividad (espectro de acción).
Resumo:
Las infecciones bacterianas están en franco aumento por diversas razones, en especial por la aparición de resistencia a los antibióticos comerciales. Por otro lado los inhibidores de acetilcolinesterasa (AChE) y tirosinasa, ambas enzimas relacionadas con diversas patologías como por ejemplo la enfermedades de Alzheimer o Parkinson, presentan ciertos inconvenientes en especial asociados a su toxicidad. Es por esto que el descubrimiento de moléculas obtenidas de plantas con acción inhibidora de bacterias y de las mencionadas enzimas es un desafío de muchos investigadores. En otro aspecto relacionado a la salud humana, muchas drogas antitumorales convencionales corren el riesgo de perder protagonismo debido a su deteriorada eficacia, fundamentalmente atribuida al hecho de que las células cancerígenas han desarrollado resistencia contra ellas. Este fenómeno se debe a la sobre-expresión de proteínas de membrana que actúan como bombas de resistencia a multidrogas (MDR). La inhibición de estas bombas se traduce en un aumento de la eficacia de las quimioterapias. Las plantas son capaces de sintetizar compuestos que utilizan como sus propias armas de defensa contra el ataque de agentes externos negativos. Esta propiedad puede ser aprovechada por el hombre para la obtención de nuevos medicamentos fitoterápicos. Continuando con la búsqueda de compuestos naturales bioactivos que realiza nuestro grupo de investigación, es nuestro objetivo encontrar nuevos compuestos obtenidos a partir de plantas nativas y naturalizadas de la región Central de Argentina efectivos para inhibir bacterias, enzimas asociadas a enfermedades y MDR. Estos productos pueden llevar a nuevos medicamentos fitoterápicos o a novedosos líderes para la síntesis de análogos. De esta manera podremos contribuir a mejorar la calidad de vida de los pacientes afectados
Resumo:
Las plantas silvestres aromáticas y medicinales son explotadas para su uso en la elaboración de diversos productos: yerbas mate compuestas, bebidas con y sin alcohol, tisanas y otros. Cabe destacar además que actualmente hay una revalorización de la medicina natural, que se complementa con la medicina holeopática, homeopática y la aromaterapia, lo que ha incrementado el rubro comercial de las herboristerías. El creciente desarrollo de estas actividades conlleva a un sistema comercial netamente extractivo, con una recolección indiscriminada que induce a que muchas de estas especies aromáticas y medicinales silvestres estén altamente presionadas y algunas de ellas en peligro de extinción, lo que indica un marcado deterioro de la biodiversidad de los recursos naturales de la provincia de Córdoba. Objetivos generales: * Introducir a cultivo algunas especies presionadas y/o de alta demanda en el mercado. * Desarrollar tecnología para la obtención de calidad y continuidad en la producción de materia prima. Objetivos específicos: * Aplicar diferentes metodologías para promover germinación en semillas de plantas aromáticas y medicinales silvestres. * Desarrollar tecnologías para obtención de plantines a partir de semillas y lograr alta capacidad de supervivencia a campo. * Establecer estrategias de manejo cultural de las especies en estudio (distribución de siembra, rendimiento, sanidad, otros). * Determinar la composición química de algunas especies.
Resumo:
Los primeros estudios de las esencias en especies cultivadas y silvestres prestaron escasa atención a la relación que podría existir entre las características cuali y cuantitativas de las mismas, su carga genética y condiciones ecológicas donde crecen las plantas que las producen. Cuando se tuvo en cuenta que el estudio de los compuestos volátiles de las esencias en especies cultivadas y silvestres, se pudo comprobar las variaciones intraespecíficas en la producción y calidad de las mismas que se presentaban en muchas especies. En los últimos tiempos ha existido un creciente interés en la aplicación de productos naturales como agentes de biocontrol y/o como material de partida en la elaboración de farmacoquímicos (aromoterapia). En este contexto los aceites esenciales toman un gran valor por las potencialidades que presentan como antibióticos, antioxidantes, ansiolíticos, insecticidas y herbicidas. En este contexto los aceites esenciales toman un gran valor por las potencialidades que presentan como antibióticos, antioxidantes, ansiolíticos, insecticidas y herbicidas. Objetivos generales * Caracterizar cuali y cuantitativamente los aceites volátiles producidos en las especies que crecen espontáneamente y las cultivadas en la región del centro y noroeste de la Argentina. * Realizar el relevamiento de la flora regional para la búsqueda de nuevas esencias. * Proponer usos alternativos de los aceites esenciales. * Transferir los resultados hacia las industrias farmacéutica, de perfumería, de los alimentos, etcétera. Objetivos específicos * Conocer la variabilidad de los componentes volátiles de acuerdo a las regiones geográficas en donde crecen las especies. * Utilizar los diferentes compuestos de los aceites esenciales como productos bioactivos (insecticidas, herbicidas, fungicidas), aditivos alimentarios y/o farmacoquímicos.
Resumo:
El objetivo del proyecto es conocer algunas de las interacciones más importantes entre los herbívoros domésticos y un pastizal de montaña de Córdoba. Interesa saber de qué manera el pastoreo afecta al ciclo de nitrógeno y si los herbívoros producen un aceleramiento en el ciclado de este nutriente. Se determinarán, además, las respuestas de las plantas frente al ataque de los herbívoros, como producción de defensas químicas y variaciones en el contenido de nitrógeno. Por otro lado, se estudiarán las respuestas de los herbívoros frente a las defensas de las plantas, como modificaciones en la selectividad de la dieta. 1. Objetivo General: Conocer las interacciones entre los herbívoros y las plantas del pastizal natural de montaña a nivel de: ciclo de nitrógeno, producción de defensas químicas, modificaciones del esfuerzo reproductivo de las plantas y selección de dieta por los herbívoros. 1.2 Objetivos Particulares: 1.2.1 ¿Cómo se ve modificado el ciclo del nitrógeno (N) del pastizal en presencia del ganado vacuno y equino? 1.2.2 ¿Qué tipo de respuestas produce el ganado sobre las plantas?: Compensación de estructuras reproductivas y defensas químicas. 1.2.3 ¿Qué tipo de respuestas producen las plantas sobre el ganado vacuno y equino?
Resumo:
En tomate ( Lycopersicom esculentum ) se han realizado estudios de expresión de los 7 genes de peroxidasa mapeados, y se ha mostrado su asociación a diversas situaciones de estrés, pero no se ha establecido de forma clara el proceso metabólico en el que intervienen estas enzimas. Los genes TPX1 y TPX2 que se expresan constitutivamente en raíces de tomate codifican para proteínas con actividad peroxidasa y mostraron relación directa o indirecta, entre la expresión de estos genes y la respuesta de esta especie a diferentes tipos de estrés. El objetivo de este trabajo es presentar un camino alternativo a los métodos tradicionales para el clonaje de las regiones promotoras de los gnes TPX1 y TPX2 y la obtención de información sobre las regiones consenso de dicha zona del promotor, sobre todo aquellas que están relacionadas con la respuesta a hormonas vegetales. Esto último debido a la frecuente implicancia de las hormonas en la respuesta de las plantas a diferentes tipos de estrés o factores de transcripción. Objetivos generales: * Identificar las regiones 5´ adyacentes a las secuencias de cDNA conocidas de los genes TPX1 y TPX2. * Obtener información sobre los elementos de dicha secuencia que controlan la expresión de los genes. Objetivos específicos: * Aislamiento de los fragmentos de DNA: A) extracción de DNA genómico, B) digestión con enzimas de restricción, C) unión de adaptadores y D) amplificación por PCR del DNA. * Clonación en vector plasmídico de los productos de amplificación: A) purificación de los fragmentos amplificados y B) inserción de los fragmentos en el plásmido pCR-Script Amp SK(+).
Resumo:
A pesar de de la gran oferta de fármacos, existen aún patologías que no cuentan con un tratamiento farmacológico efectivo o que su terapéutica provoca efectos indeseables. Según la OMS, la mayoría de las enfermedades nuevas, son patologías emergentes y re-emergentes causadas por virus. Además, existen enfermedades virales endémicas que siguen afectando a nuestro país, como el virus Junín (VJ) y el virus Encefalitis San Luis (ESL). Los problemas que plantean las infecciones virales endemo-epidémicas emergentes y re-emergentes con la aparición de brotes de enfermedades sistémicas y/o neurológicas de diferente magnitud, forman parte de nuestra realidad cotidiana y constituyen una constante amenaza, no sólo para nuestro país sino para el resto del mundo. Para la mayoría de estas enfermedades regionales, no existe un tratamiento adecuado, ya que las actuales drogas sintéticas antivirales muchas veces no resultan exitosas y hasta algunos virus se vuelven resistentes a las mismas. Por lo que se hace necesaria la búsqueda de nuevos agentes terapéuticos.La OMS promueve fuertemente la investigación de plantas nativas, utilizadas en la medicina folclórica, para la obtención de nuevos agentes medicinales. Asimismo, existen estudios etnobotánicos que demuestran que varias plantas de nuestro país, pueden ser seleccionadas de acuerdo a su uso en la medicina tradicional para el tratamiento de distintas infecciones virales. Otra fuente de estudio son las especies reconocidas como tóxicas, ya que contienen sustancias activas que pueden constituirse en posibles agentes terapéuticos, dado que está ampliamente demostrado que regulando la dosis, un principio activo (PA) puede producir un efecto tóxico o beneficioso.Por lo que se plantea como hipótesis que las plantas nativas tóxicas y las utilizadas en la medicina tradicional del centro-norte de Argentina poseen compuestos con potencial efecto antiviral.Este proyecto constituye un trabajo interdisciplinario que tiene como objeto de estudio la evaluación química de diferentes especies autóctonas con el fin de obtener compuestos naturales con potencial actividad antiviral.Los objetivos específicos son: a) Evaluar la actividad citotóxica, virucida y antiviral in vitro de diferentes extractos de plantas autóctonas.b) Aislar, purificar e identificar los metabolitos secundarios mayoritarios de los extractos activos.c) Estudiar la citotoxicidad y actividad virucida y antiviral in vitro de los compuestos purificados químicamente.d) Establecer sus posibles mecanismos de acción.El estudio abarca especies vegetales que habitan la región centro y norte del país. Y se han elegido distintos modelos virales (ADN y ARN), que están asociados a infecciones emergentes, re-emergentes y endémicas que afectan a nuestro país. Los extractos que resulten activos frente a algunos de los virus ensayados, serán seleccionados para el aislamiento, purificación e identificación de sus PA. Para ello se recurrirá a técnicas cromatográficas, aplicando para su identificación técnicas analíticas espectroscópicas (UV-V, IR, EIMS, RMN-1H y 13C). La actividad virucida y antiviral "in vitro" de los compuestos puros se evaluará mediante el ensayo de reducción de placas y mediante el método de captación rojo neutro (RN) y la prueba de reducción del MTT. Para ello, se ensayarán los compuestos a las concentraciones no citotóxicas, determinadas sobre células Vero, mediante la evaluación de la viabilidad celular. Se realizarán transformaciones químicas a los fines de mejorar la actividad biológica en relación a la citotoxicidad exhibida, realizando estudios de estructura - actividad. Se espera obtener compuestos de origen natural con actividad antiviral y con baja o nula toxicidad, estableciendo sus posibles mecanismos de acción. De manera de plantear soluciones terapéuticas y/o preventivas a los problemas derivados de las infecciones virales emergentes, re-emergentes y endémicas que afectan a países en desarrollo.