908 resultados para Protección de las plantas


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis trata acerca de los diversos mecanismos de protección de las bases de datos que se encuentran contemplados en las legislaciones de los países de diversos sitios del mundo. Procuramos detallar las virtudes y falencias de cada uno de dichos mecanismos y al mismo tiempo analizamos la conveniencia o inconveniencia de que se apruebe una legislación internacional homogénea que regule este tema. Para ello se recogen diversas opiniones y el contenido de las legislaciones. Las opiniones a las que se hace referencia corresponden a tratadistas de derecho, a personas involucradas en el campo de la ciencia o de la educación, científicos o catedráticos y a criterios expresados por instituciones tanto públicas como privadas. El contenido de esta tesis gira en torno a establecer la conveniencia de que los diversos países cuenten con un sistema de doble protección de las bases de datos, a través del derecho de autor o a través del mecanismo denominado de protección sui generis. O por el contrario a establecer si es mejor que se aplique sólo uno de estos mecanismos, el de derecho de autor, como ha sido tradicional, sumado a otros mecanismo de protección como el contractual o el de competencia desleal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Incluye Bibliografía

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo sugiere algunas rutas alternativas de protección para las poblaciones rurales de Colombia, pensadas desde la caracterización de las familias, sus dinámicas heterogéneas, los riesgos diversos que enfrentan y sus principales necesidades. presenta las principales tendencias demográficas en Colombia, en particular de la población rural, donde se destaca la importancia de considerar las dinámicas poblacionales para la construcción de mejores alternativas de protección. Y aporta una clasificación de las diferentes estructuras familiares y de la actividad productiva principal a la que se dedican sus miembros activos. Posteriormente, se precisa el concepto de protección social y se presentan sus principales elementos, para abordar en una aproximación al estado actual de la protección social en Colombia y a las principales estrategias —formales o informales— a las que recurren los hogares rurales para protegerse. Se exponen las razones por las cuales los instrumentos existentes no han sido efectivos y finalmente, se ofrecen algunos elementos para la construcción de rutas de protección para la población rural, así como su clasificación en algunas tipologías básicas. Una versión preliminar fue presentada al Consejo Directivo de la Misión para la Transformación del Campo, cuyos comentarios enriquecieron este trabajo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las especies de aves ligadas a los sistemas tradicionales agrarios constituyen una de las poblaciones más amenazadas de la comunidad ornitológica europea. El territorio español alberga el 90% de las poblaciones europeas de ocho especies de aves recogidas en el EFBI (European Farmland Bird Index). Las medidas agroambientales en España deben respon- der pues a un importante reto de conservación ambiental que trasciende más allá de nuestras fronteras. El objetivo de este trabajo es evaluar el incentivo a participar y realizar un análisis comparativo de las medidas dirigidas a la protección de las aves esteparias en las comunidades autónomas de Aragón, Castilla La Mancha, Castilla y León, Cataluña y Extremadura. La caracterización y el análisis económico de los requisitos exigidos permite concluir que en la mayoría de las medidas analizadas, los costes más importantes son aquellos relacionados con el coste de oportunidad o lucro cesante. Finalmente, se establecen recomendaciones para incrementar el alcance de las medidas agroambientales en zonas extensivas. PALABRAS CLAVE: Programa agroambiental, sistemas agrarios extensivos, biodiversidad, aves esteparias, análisis de costes. CÓDIGOS JEL:Q57.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La savia de las plantas denominada para efecto de este Proyecto de investigación Jugo ó vinagre de Madera , es el punto de partida y uno de los descubrimientos mas acertados en el campo de la investigación de nuevas tecnologías para el mejoramiento productivo de todos los cultivos. Esta investigación, ha conllevado un poco más de nueve años de observación y dos años de experimentación e investigación a nivel de los laboratorios. El documento está estructurado en cuatro aspectos: El Primero describe el procedimiento para la extracción de la savia de las plantas, como se denomina en la práctica Jugo ó vinagre de madera, en un segundo plano, se describe todo el proceso de investigación ó validación de la tecnología y el estudio mismo de sus componentes macros y micro elementos y los componentes estructurales de la sustancia. En un tercer plano está el análisis comparativo de los resultados y su relación directa con cada variable de la investigación. Por tratarse de una sustancia nueva y tan novedosa en términos prácticos, el estudio estuvo dirigido al descubrimiento de sus componentes orgánicos e inorgánicos, más que su funcionamiento lo que se ha venido observando por mucho más tiempo en forma práctica. Un cuarto aspecto abordado, se describe una exposición de resultados presentadas por el equipo investigador y particularmente a por los campesinos participantes con los que se llevó este proyecto. Los campesinos beneficiarios y experimentadores exponen a productores de otras comunidades los resultados productivos y comportamientos interesantes en términos de reacciones de las plantas a sobre dosis, desarrollo vegetativos por encimas de rangos normales de crecimientos y rendimientos propiamente dichos. Este cuarto aspecto es abordado mediante una memoria del día de campo celebrado a nivel institucional y a todas las comunidades beneficiadas por el Proyecto Auspiciado por FUNICA e INPRHU. En el día de campo se tuvo la oportunidad de observar plantas de café manejadas manejas de forma tradicional (químicamente) y plantas áreas y surcos manejados con jugo de madera en donde se puede observar la diferencia de crecimiento y reacciones bioquímicas de las en torno al desarrollo vegetativo, floración y 5 fructificación a escasos (8) ocho meses no plantas que poseen un tamaño inferior al metro y que los frutos se encuentran a una altura no mayor a los diez centímetros. Finalmente de expresan las conclusiones y recomendaciones en torno a esta investigación y posibles investigaciones en torno a tema de fertilización orgánica tomando como base el Jugo o Vinagre de madera.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Con el objetivo de caracterizar la composición botánica de especies forrajera y no forrajera en sistemas de pastura de pasto Brachiaria (Brachiaria brizantha), en la Hacienda Las Mercedes se ubicada en el km 10 de la carretera norte, contiguo al CARNIC, y Santa Rosa, ubicada de la Entrada a la Zona Franca 4 Km sur, del desvío a Sabana Grande 200 m Norte, 100 m Oeste. Se realizó el presente trabajo. Para la ejecución del mismo y dada las posibilidades se eleccionaron dos escenarios ambientales, una con árboles y otra sin árboles, donde se realizó primeramente la determinación de la composición botánica, utilizando para ello el método del doble muestreo, simultáneamente se realizó la primera colecta de material vegetativo, el cual posteriormente fue identificado en el herbario de la UNA, herbario Nacional y a través de consultas con expertos en la materia (Botánicos). A cada una de las especies identificadas se les realizó fichas botánicas, que comprendieron nombre común, nombre científico, origen y distribución, características de las plantas, aptitudes forrajera y cuando fue posible si presentaba Características anticualutativas o antinutricionales. Posteriormente se realizó una valoración técnica, para considerar el estado de dichas pasturas y las implicaciones económicas que estas podrían tener en manejo y recuperación. Registrándose coberturas vegetales que fluctuaron de 30 a 70%, y composición de las especies forrajeras en rangos similares. Se identificaron 23 familias, 43 géneros y 43 especies, dentro de los cuales destacaron por su mayor presencia las especies de escoba lisa (Sida cuta), bledo espinoso (Amaranthus espinosus, Melón amargo (Momordica charanthia, Cinco negritos ( Lantana camara), Flor amarilla (Baltimora recta), Añil Forrajero (Indigofera hirsuta), Grama de conejo (Oplismenus burmani)dormilona (Mimosa pudica), entre otras, también se considera como forrajera a algunas especies leguminosa herbáceas como patito (Centrocema plumieri), centro Chorreque (Vigna Vexillata), Zorrillo (Petiveria alliacea), Flor amarilla (Melampodium divaricatum) pega pega (priva lappulacea), chilillo de gato (Achyranthes aspera), se observó una diversidad de especies, cuando existían árboles en el área de pasturas, minimizándose estas cuando no existían árboles. A través del análisis técnico–económico se determinó que los factores cobertura vegetal y Porcentaje de malezas son de mucha importancia, en el manejo y productividad de las pasturas y que aun cuando se tenga pasturas de buen comportamiento productivo, se registran perdidas, lo cual indica que en las pasturas no todo es forrajero.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En la estación experimental Le Compañía, ubicada en el Municipio de San Marcos, Departamento de Carazo, se estableció el presente ensayo durante la época de postrera de septiembre 1990 a enero 1991, con el objetivo de determinar le influencia de labranza, control de malezas y rotación de cultivos en el comportamiento de las malezas, crecimiento y rendimiento de los cultivos de frijol y soya. Se usó un diseño en parcelas sub-divididas en franjas con 4 réplicas, siendo el factor A: Sistemas de labranza (convencional. mínimo y cero). Factor B: Rotación de cultivos (maíz-frijol y sorgo-soya). Factor C: Control de malezas (químico, control período crítico y limpia periódica). Labranza mínima y cero labranza redujeron la abundancia total de malezas para los cultivos de frijol y soya respectivamente, predominando la especie Sorghum halepense , no obstante le menor cobertura se encontró en labranza convencional para el cultivo del frijol y cero labranza para la soya; encontrándose la menor biomasa de malezas y le mayor diversidad en labranza mínima pera ambos cultivos. El control limpie periódica disminuyó la abundancia y dominancia pero presentó le mayor diversidad de malezas. Para las variables de altura de plantas, Número de hojas, diámetro del tallo existe diferencia significativa por influencie de la labranza en el cultivo de frijol, para el cultivo de le soya existe diferencia pare altura de las plantas, número de hojas, densidad poblacional, número de vainas por planta, número de semillas por vaina, peso de 1000 semillas y rendimiento. En cuenta a las variables de crecimiento y rendimiento, labranza mínima resultó ser la mejor para ambos cultivos y el control limpia periódica resultó ser el mejor al encontrar en este los mayores valores para las variables de crecimiento y rendimiento.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este ensayo experimental se realizó en época de postrera de 1992, en los terrenos del vivero de la Universidad Nacional Agraria, con el objetivo de determinar el daño causado por el virus del mosaico común del frijol BCMV y determinar el periodo critico necesario para proteger el cultivo. Las variedades que se utilizaron durante la investigación fueron DOR-364, REV-84, (variedades mejoradas) CA-2343 y CA-1923 (variedades criollas). La metodología usada fue inocular el virus mecánicamente, realizada en 4 momentos (Etapas fenológicas V2, V3, V4, R5). y un testigo sin inocular. Se realizaron observaciones de sistomatología desde la primera inoculación hasta la etapa de maduración fisiológica del cultivo. A partir de la cosecha se tomaron datos del número de vainas por planta, número de semillas por vainas y el peso de semillas por panta (gramos). Los resultados indican que la inoculación del BCMV efectuada en las diferentes etapas influyen sobre el daño en las plantas. Las plantas que fueron inoculadas en la primera etapa mostraron daños más severos y aquellas que se inocularon en la etapa R5 con daños menos severos. La variedad DOR-364 presentó daños por 7,5-36.1 %, la variedad REV-84 de 6-37.5%, la variedad CA-2343 de 8-35.1% y la variedad CA-1923 resultó con daños más severos siendo de 48.9-97.4%. En relación al período crítico las variedades DOR-364, REV-84 y CA-2343, el tiempo de protección requerido para reducir el daño fue de 13 días (Etapa V3) y para la variedad CA-1923 de 25 días (Etapa V2-R5)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El cultivo de maíz (Zea mays) es afectado por la enfermedad del achaparramiento del maíz. Esta enfermedad es causada por un complejo de patógenos transmitidos por el insecto vector Dalbulus maidis. Dalbulus maidis es controlado naturalmente por el hongo entomopatógeno Metarhizium anisopliae. Este hongo es afectado porcondiciones físicas tales como: humedad, temperatura, precipitación y viento. Para estudiar el de efecto estos factores se estableció un experimento en el Centro Nacional de Granos Básicos " Humberto Tapia Barquero” en la Región IIl Managua, Nicaragua. Sembrando quincenalmente cuatro variedades de maíz. Se determinó el número de Dalbulus maidis vivos y muertos por Metarhizium anisopliae. El objetivo de este estudio fue determinar los efectos de los factores físicos en conjunto con la población hospedera y el inóculo en el desarrollo de la epidemia del hongo. La temperatura, humedad y el viento no fueron factores relevantes dentro del estudio, por lo que no se incluyeron dentro del análisis. La variedad de maíz y la población hospedera no influyeron significativamente sobre el tamaño de la epizootia. Siendo la lluvia y el inoculo de la siembra anterior, los que influyeron significativamente en el tamaño de la epizootia. El microclima del cultivo es determinante en el desarrollo de la epizootia.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Con los objetivos de determinar el efecto de carbofuran y número de aplicaciones de chlorpyrifos sobre la infestación de Spodopters trugiperla (J.E. Smith), (Lepidoptera: Noctuidae) y los rendimientos en el cultivo de mal (grano), en la época de riego y de primera de 1988, se establecieron dos ensayos en el Centro Nacional de Investigaciones de Granos Básicos "San Cristobal" (Managua). Se establecieron períodos protegidos de 0-10,0-20,0-50,10-40, 20-40, 20-50, 20-30 días después de la emergencia (DDE) y testigo sin protección. Los periodos de 0-10 DDE recibieron aplicaciones de carbofuran (681 gr i.a) al suelo, los demás recibieron aplicaciones de chlorpyrtfos dirigidos al cogollo a una dosis de 0.5 1/mz. Los resultados demuestran que protección con Carbofuran durante el periodo de 0-10 DDE no hubo efecto en ambas épocas sobre las infestaciones de Spodoptera trugiperda (J.E. Smith) ni sobre el número de plantas sobrevivientes, esto indica que es un producto que no controla plagas del follaje. En época de riego, las aplicaciones de chlorpyrifos tuvieron efecto sobre el rendimiento y fueron suficientes solo 2 aplicaciones de chlorpyrifos en la segunda mitad de estadio de cogollo en forma dirigidas al cogollo, para obtener rendimientos y ganancias Iguales que las parcelas que recibieron 4 aplicaciones. En época de primera no hubo efecto de los tratamientos sobre el rendimiento debida a las bajas infestaciones de cogollero que se presentaron.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Se estudió el patosistema mancha de hierro-café a diferentes altitudes y bajo condiciones de campo para describir sus epidemias y determinar el periodo critico, su efecto sobre la defoliación y la producción de café cereza y la influencia del clima sobre su desarrollo. Se seleccionaron lotes en fincas a 440 y 650 m.s.n.m., en el Pacifico y 850, 1050 y 1200 m.s.n.m., en el norte. En cada lote, se numeraron y marcaron 150 bandolas, distribuidas en tres estratos y durante 40 semanas se recolectaron datos del nümero de nudos, nudos con frutos, hojas, incidencia (%), severidad (%), nümero de esporas, temperatura, humedad relativa y precipitación. Además, se recolectó información concerniente al nivel tecnológico, manejo agronómico y caracteristicas fisicas del lote. Luego, se describieron y compararon las epidemias, tanto a nivel de estrato, como a nivel de ecosistema, relacionándolas en este ültimo caso con las variables climátícas, el inóculo, la defoliación y ,la producción. Se definió el periodo critico, determinando en qué fase de las epidemias ocurrieron las mayores r (tasas aparentes de infección}. También se calculó un indice de importancia de las epidemias para ampliar las comparaciones. La "mancha de hierro" es más agresiva en el norte que en el Pacifico y se desarrolla más rápidamente cuando comienza tarde. Su mejor desarrollo ocurre en el estrato superior. Su ciclo epidémico va de mayo y junio a marzo y abril y su periodo critico ocurre durante las 2-4 primeras semanas, para la incidencia y los primeros 4-7 meses, para la severidad. Durante este periodo la acumulación semanal de enfermedad fue de 1 - 3% para la incidencia y 0.2 - 0.5% para la severidad. No se pudieron obtener resultados categóricos en cuanto a la relación del desarrollo de la enfermedad y las variables climáticas. Los mayores ataques a los frutos ocurrieron donde habia menos sombra y no necesariamente donde ocurrió la mayor tasa de infección en hojas. Cualquier sistema de manejo de la "mancha de hierro" debe fundamentarse en una fertilización y limpieza adecuadas del cafetal y el control quimico aplicado en base al periodo critico y el estrato de mayor desarrollo de la enfermedad. La severidad y la incidencia describieron de igual manera las epidemias del patosistema, pero es más conveniente utilizar la incidencia como elemento para la toma de decisiones de manejo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Con el propósito de evaluar la efectividad "in vitro'' de algunos fungicidas usados para el manejo de patógenos causantes de enfermedades del cafeto y reducir sus dosis, se condujo el presente trabajo que se llevó a cabo en el Laboratorio de Sanidad Vegetal del Centro Experimental de la Comisión Nacional del Café (CONCAFE) ubicado en el Km. 7, empalme San Francisco Carretera a San Ramón-Matagalpa y en el Laboratorio de Micología del Centro Nacional de Protección Vegetal (CENAPROVE) que está ubicado en el Km. 12.5 Carretera Sur, San José de la Cañada, Managua, a partir de Mayo a Diciembre de 1991. Se probaron seis fungicidas: Benomyl, Fermate, Propiconazol, Cupravit, Propineb y Captafol, evaluándose en cada uno cuatro dosis que se escogieron partiendo de la dosis comercial recomendada por las casas distribuidoras, la que tomamos como dosis alta, de la cual se derivaron las subsiguientes dosis, para él manejo de: Colletotrichum coffeanum Noack., Rhizoctonia solani Kuhn y Fusarium oxysporum f. sp. Se usó un Diseño Completo al Azar (DCA) con cuatro repeticiones, 24 tratamientos y 1 testigo absoluto sin tratamiento. Se midió el crecimiento del hongo en medio de cultivo PDA, (Papa-Dextrosa-Agar} con los fungicidas, encontrándose que el Propiconazol fue el que mayor efectividad tuvo aún en la dosis más baja, en cualquiera de los patógenos. El Fermate en su dosis media a baja y el Captafol en su dosis media son los productos que lograron en los 3 patógenos ejercer un buen control. Cupravit no mostró ninguna efectividad sobre R. solani y F oxysporum, pero si sobre C.coffeanum. Benomyl ejercio un buen efecto para R. solani y f. oxysporum pero no para C. coffeanum. Propineb mostro su efectividad en R. solani y C. coffeanum pero no ejerció ningun efecto en F. oxysporum.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Con el objetivo de encontrar alternativas adecuadas de manejo de Plutella xylostella (L.), una de las principales plagas del cultivo del repollo (Brassica oleracea (L.), se llevó a cabo el presente trabajo, en el laboratorio de hongos entomopatogenos del Centro Nacional de Protección Vegetal (CENAPROVE) y la Universidad Nacional Agraria (U.N.A), en el periodo comprendido entre Febrero 1991 y Enero 1992. Se evaluó la respuesta de Plutella xylostella a tres aislados de Beauveria bassiana (Bals) Vuill. Los aislados evaluados fueron 64-88, CB-32 y 116-87, con cuatro concentraciones acuosas de cada aislado correspondientes a 105, 106, 107, 108 conidias/ml, obteniéndose rangos de porcentajes de mortalidad entre 27.3%-81.50% (64-88), 29.28% -70.39% (CB-32), 5.08% -37.5% (116-87). Se calcularon las CL50 para los aislados 64-88, CB-32 y 116-87 obteniéndose los valores de 1.8 x 106, 4.41 x 106 y 4.4 x 108 conidias/ml respectivamente, siendo los aislados 64-88 y CB-32 los que se mostraron más promisorios para el control de Plutella xylostella. El aislado 64-88 mostró tendencia a ser más eficaz en el control de larvas de esta plaga. Los valores encontrados de TL50 variaron; siendo el aislado 64-88 el que obtuvo menor tiempo (3.6 días después de la inoculación) para la mayor concentración, seguido del aislado CB-32 que alcanzó valores de 5.86 días para la mayor concentración, para el aislado 116-87 no se obtuvo el TL50 esperado ya que los valores resultaron extremadamente altos, no llegando a alcanzar el 50 % de mortalidad.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el estudio realizado en el Valle de Sebaco, durante el periodo de Nov.90 - Mar.91, establecido con el objetivo de determinar el efecto del policultivo: (Repollo Tomate) sobre la entomofauna del cultivo de repollo (Brassica oleracea L.), sobre la calidad y rendimiento del repollo, cuyos tratamientos comprendieron monocultivo (Repollo­ Repollo) y policultivo (Repollo-Tomate) en dos diferentes modalidades de siembra (Tiempo: 10, 30 Dias Antes del Transplante, y espacio: surco, cama). Las poblaciones de P.xylostella fueron menores en policultivo, sin embargo sobre el resto de poblaciones de insectos (Diabrotica sp., áfidos, y Creontiades sp.) este sistema de asocio no tuvo efecto reductor. Ofreciendo igual protección de este defoliador al cultivo de repollo en las dos modalidades de siembra en estudio (tiempo y espacio). En la incidencia de insectos benéficos como: Arañas, D.insulare fueron iguales, en ambos sistemas de siembra, solo las poblaciones de Polybia sp. fueron Superiores en monocultivo, sin embargo al establecer una relación de insecto plagas (P. xyylostella) por insecto benéfico estos fueron superiores en policultivo lo que permitió ser un mecanismo de control de P, xylostella en el cultivo de repollo. de igual manera el porcentaje de parasitismo de D. insular e fue de 31.87% en monocultivo y de 34.72% para poliCultivo permitiendo este sistema de siembra un aumento en los enemigos naturales los que son un mecanismo de control de P. xylostella. El cultivo de tomate ejerce protección al cultivo de repollo de las plagas defoliadoras lo que permite obtener• una mejor calidad de cabezas con menor cantidad de área foliar dañada siendo del 20%, un porcentaje de cabezas formadas de 74% y peso de 1.10kg. lo que permite incrementar los rendimientos del cultivo de repollo. El Cultivo de tomate en sus dos modalidades de siembra permite obtener similares ingresos, y permite incrementar los rendimiento en el sistema de siembra en policultivo.