1000 resultados para Cría del ganado
Resumo:
El estudio del pie, de su funcionamiento, de su estructuración, de sus arcos, de todo aquello que lo hace tan maravillosamente funcional, ha sido para mí una constante atracción desde que empecé los estudios en este Instituto. Mis conocimientos de anatomía adquiridos en los primeros años de carrera, el gusto personal hacia esta materia penetrante y casi agresiva, la importancia que tiene en la formación del profesor de Educación Física, el conocimiento de la funcionalidad de las diferentes partes del cuerpo humano, la importancia que en sí mismo tiene el pie, no ya en los deportes y actividades físicas , sino en el desenvolvimiento de la vicia cotidiana… son motivos suficientes que me llevan a ahondar un poco más en este tema y realizar así este trabajo fin de carrera. No pretendo con él realizar un estudio exhaustivo y profundo del tema, y mi intención queda muy lejos de ello. Simplemente quiero iniciar esta búsqueda de conocimientos. Será un comienzo de investigación personal que me sirva como complemento en la culminación de mis estudios como alumno de este Instituto, y a su vez base de partida para otros estudios posteriores como exalumno y futuro profesor de Educación Física. El tema no es nuevo ni mucho menos. Hay muchos estudios realizados y numerosos científicos , médicos y anatomistas han dedicado muchas horas a esclarecer problemas y descubrir nuevos conocimientos. Sin embargo estos trabajos están realizados, la mayor parte, desde un punto de vista médico, y con miras a una aplicación posterior en la patología del pie. Todos, o casi todos, se llevan a cabo en investigaciones hechas con cadáveres con todo tipo de radiografías o con electromiógrafos, en fin con una serie de medios que por supuesto no tengo a mi alcance, ni material ni intelectualmente. No puedo, entonces, pretender hacer algo nuevo, no puedo llegar más allá de donde, hasta ahora, se ha llegado. He de limitarme a lo que hay escrito. Mi labor no será otra que la de "resumir" o "aglomerar" lo que otros me dan, ordenarlo al nivel de mis conocimientos y explicarlo desde un punto de vista particular, y no médico. Trataré siempre de un pie sano, de un pie en vida, en ejercicio, en movimiento. (Los médicos trabajan con enfermos, nosotros, sin embargo, tratamos con personas más o menos sanas, aunque a veces podamos también mejorar su salud). No intento hacer ningún estudio de pies patológicos o simplemente con defectos (pie plano, cavo, equino, etc.), pues creo que es tema por sí solo de otra tesina. También podría orientarme hacia los defectos en los escolares, en nuestro medio de trabajo, en cómo tratarlos el profesor de Educación física, en fin, en multitud de temas que fueran de una aplicación más inmediata para nuestra labor. Todos serían temas adecuados en el estudio del pie, pero por ahora quedan dentro de ese futuro al que antes aludía. Será pues, un estudio anatómico-funcional basado en conocimientos anatómicos, en consultas o libros, trabajos realizados. Una vez terminado expondré unas conclusiones y lo que yo he sacado en limpio, lo que he ganado y las ventajas que creo haber adquirido.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
La fase de establecimiento del regenerado es un proceso crítico para el desarrollo posterior de la masa tanto por las elevadas tasas de mortalidad que habitualmente lleva asociadas, como por proporcionar el material de partida del que van a disponer las fases subsiguientes. Las restricciones a la germinación y establecimiento de la regeneración del pino silvestre varían enormemente entre las distintas regiones de su extensa área de distribución geográfica. La región Mediterránea constituye un hábitat marginal de la especie en el que las condiciones ecológicas son muy diferentes a las del grueso de su área de distribución. Frente a otras limitaciones (frío, luz, encharcamiento…), en el entorno mediterráneo la tasa de mortalidad parece estar asociada a las condiciones micrometeorológicas del período estival - particularmente, a la sequía -, así como a la presencia excesiva de ganado o ungulados silvestres. No obstante, la mayoría de la información disponible sobre el proceso de regeneración de la especie procede del centro y norte de Europa, por lo que no es de aplicación directa en nuestra región, en la que los estudios de este tipo son mucho más escasos. El presente trabajo pretende contribuir a paliar esta relativa escasez a través del estudio del proceso de regeneración natural en el monte “Cabeza de Hierro”, masa irregular por bosquetes de pino silvestre, paradigma de gestión sostenible y uso múltiple. En este entorno, se pretende caracterizar y cuantificar tanto el proceso de germinación y supervivencia de la especie como la influencia de la cobertura vegetal (estratos arbóreo, arbustivo y herbáceo, y capa de restos vegetales) en su desarrollo. Se persigue así mismo analizar el efecto de la compactación del suelo sobre la persistencia de la masa y contrastar y comparar la eficacia de dos tratamientos edáficos de ayuda a la regeneración: escarificado y decapado+acaballonado. Con este fin se han planteado dos diseños experimentales consistentes en sendas redes de muestreo (Red de Muestreo I o RM I y Red de Muestreo II o RM II) integradas, respectivamente, por 192 y 24 parcelas de 1,5x1,5 m ubicadas bajo distintas condiciones de cobertura vegetal. Sobre una parte de estas parcelas (1/4 en la Red de Muestreo I; 1/2 en la Red de Muestreo II) se han aplicado tratamientos de ayuda a la regeneración (RM I: escarificado; RM II: decapado+acaballonado) y, tras llevar a cabo siembras controladas al inicio del período vegetativo, se han practicado controles periódicos de germinación y supervivencia durante uno (RM II) y tres años consecutivos (RM I). Se han realizado así mismo mediciones complementarias de variables micrometeorológicas, espesura, recubrimiento superficial del suelo y compactación. Los resultados obtenidos a partir de las experiencias realizadas en el monte objeto de estudio permiten concluir que, en relación con el proceso de regeneración natural de la especie en este tipo masa y entorno: 1) la regeneración del pino silvestre durante el primer período vegetativo presenta una tasa de éxito muy baja (1,4% de los sembrados), provocada por una elevada mortalidad durante el primer período estival (>92%) subsiguiente a una germinación de en torno al 17% de las semillas viables que llegan al suelo; 2) la mortalidad sigue siendo elevada hasta el tercer período vegetativo, en que comienza a reducirse significativamente hasta alcanzar el 45%; 3) la cobertura vegetal influye significativamente tanto en el proceso de germinación como en el de supervivencia, aunque ambos procesos presentan una baja correlación linear que pone de manifiesto que los lugares idóneos para la germinación no siempre son los más adecuados para la supervivencia; 4) la escarificación del suelo mejora las tasas iniciales de germinación y supervivencia, pero empeora la tasa de supervivencia posterior (años 2 y 3), por lo que su efecto a medio plazo no resulta significativo; 5) el decapado+acaballonado presenta mejores resultados que el escarificado durante el primer verano, aunque sólo resulta efectivo en condiciones intermedias de espesura de masa; 6) la compactación edáfica no resulta limitante para la productividad ni la persistencia de la masa considerada. ABSTRACT Seedling establishment is critical for later stand progress because it involves high mortality rates and the surviving saplings constitute the starting material for all the subsequent stages. Restrictions for Scots pine germination and seedling survival may vary greatly across its geographical range, as it is widely distributed within north latitudes. Mediterranean region is a marginal sector within this species range and its ecological conditions differ greatly from those of the bulk of the area. Mortality rates in Mediterranean environments seem to be related to summer weather (mainly drought) and high livestock stocking rather than to cold, light or flooding. Most available information on scots pine regeneration process comes from north European experiences and is not transferable to Spanish forests, whereas studies on Mediterranean region are much scarcer. The present work aims at broadening Scots pine regeneration knowledge within Mediterranean region by analyzing its establishment process in the “Cabeza de Hierro” forest: a Scots pine uneven-aged forest at blocklevel scale, exemplary managed for multi-services purpose. Germination and surviving processes are to be characterized and quantified as to vegetation cover both in trees, shrubs, grass and litter strata. Soil compaction effects on forest sustainability are also assessed and the efficacy of some site preparation techniques on regeneration success is tested and compared (scarification vs. scalping+mounding). Two sampling networks comprising respectively 198 (SN I) and 24 plots (SN II) of 1.5x1.5m have been established over a wide range of vegetal cover conditions within the forest. Soil preparation techniques have been applied only to some of the sampling points; namely, 1 out of 4 plots have been scarified within Sampling Network I , while 1 out of 2 plots have been object of scalping & mounding within Sampling Network II. After localized sowing prior to growing season, germination and surviving have been periodically sampled for either one (SN II) or three years (SN I). Supplementary measures for micrometeorological variables, stand density, ground vegetal cover and compaction have also been carried out. Results obtained for the studied forest lead to the following insights regarding Scots pine natural regeneration process within this sort of forest and environment: 1) seedling establishment success rate is quite low (0,15% of sowing seeds), due to high mortality during the first summer (>92%), following a prior 17% rate of germination over viable seeds reaching the soil; 2) mortality rate remains high until the third year after emergence and then decreases to the 50% of surviving; 3) although vegetal cover significantly affects both seedling germination and survival, lineal correlation between those two processes is rather low, which may indicate that places fit for emergence are not necessarily suitable for summer surviving; 4) soil scarification improves both germination and survival during the first growing season, but it is associated to higher mortality rates during the next two years; hence it has no significant medium term effect; 5) scalping & mounding treatment is more effective than scarification concerning establishment improving during the first summer; but its effects are only significant under intermediate stand density levels; 6) soil compaction does not restrict either forest productivity or persistence, despite the area’s long history of high livestock stocking rates and mechanized logging.
Resumo:
El objetivo general de esta Tesis Doctoral fue evaluar nuevos sistemas de alojamiento y cría de conejos de granja, estudiando tanto parámetros comportamentales (experimento 1) como productivos y reproductivos (experimento 3). Además, se evaluaron diferentes técnicas de muestreo con el fin de optimizar el tiempo empleado para el estudio del comportamiento animal (experimento 2). En el experimento 1, se estudió el comportamiento de conejas alojadas en dos tipos de jaulas (TJ), convencionales vs. alternativas con una plataforma elevada, en distintos estados fisiológicos (EF), lactantes y gestantes. Se observó el comportamiento de 12 conejas reproductoras con grabaciones de una duración de 24 h continuas. Independientemente del EF y TJ, las conejas pasaron gran parte de su tiempo sobre el reposapatas (57,7 %, de media). Sin embargo, debido al uso de la plataforma (23,0% del tiempo, de media), las conejas lactantes permanecieron un 36,6 % menos de tiempo (P<0,001) sobre el reposapatas y las gestantes un 27,0% menos (P<0,001) sobre el enrejillado en jaulas alternativas que en convencionales. En las jaulas alternativas, las conejas podían adoptar la postura “levantada”, sin embargo ésta fue observada solamente en conejas gestantes una media de 4,6 veces al día. Las conejas bebieron con mas frecuencia en jaulas convencionales que en alternativas (24,6 vs 19,1 veces al día; P<0,05). Se observó una mayor duración y frecuencia del comportamiento “interactuando con compañeras” en conejas gestantes alojadas en jaulas convencionales (276 s/d y 4,6 veces/d; P<0,05). La frecuencia de “interactuando con gazapos” fue menor en jaulas alternativas que en convencionales (2,4 vs 8,6 veces al día; P<0,01). La hora del día afectó al comportamiento de las conejas, teniendo un comportamiento menos activo durante las horas centrales del día. Durante las horas de oscuridad, las conejas estuvieron más inquietas realizando comportamientos como ‘encabritarse’ o amamantar, coincidiendo éstos en el tiempo en el cual las conejas pasaron más tiempo en la plataforma. Las conejas utilizaron frecuentemente la plataforma, independientemente del estado fisiológico. En la fase de lactación, las conejas utilizaron la plataforma para huir de los intentos de mamar por parte de los gazapos cuando éstas no estaban receptivas. El uso de la plataforma puede dar lugar a problemas higiénicos debidos tanto por la acumulación de heces sobre ella como por la caída de heces y orina sobre los animales que están en la parte inferior. La ausencia de estereotipias por parte de las conejas tanto en jaulas alternativas como en convencionales no sugiere una falta de bienestar debida al sistema de alojamiento. En el experimento 2, se compararon distintos métodos de observación simplificada con respecto un método de referencia usando grabaciones continuas de 24 h para la evaluación del comportamiento de conejas en distintos estados fisiológicos (gestantes y lactantes) alojadas en dos tipos de jaulas (convencionales y alternativas). Se analizaron un total de 576 h de grabaciones continuas de 24 h en 12 conejas reproductoras al final del periodo de lactación y en las mismas conejas después del destete. Los comportamientos observados se clasificaron en tres categorías independientes (localización en la jaula, postura y comportamientos funcionales). Se utilizaron grabaciones continuas de 24 h como método de referencia para validar otros cuatro métodos de observación simplificados, utilizando grabaciones de distinta duración y frecuencia a lo largo del día. Métodos regulares: corto y largo con 2.4 y 8 h de observación respectivamente, y métodos irregulares: corto y largo con 6 y 8 h de observación, respectivamente. Como resultado, se observó que independientemente del sistema de alojamiento, el mejor método para reducir el tiempo de observación necesario para evaluar el comportamiento de conejas reproductoras depende del tipo de variable a estudiar y del estado fisiológico de las conejas. En gestantes, los métodos irregulares no fueron adecuados para estimar comportamientos de larga duración tales como tumbada, sentada, descansando y acicalándose. Sin embargo, en ambos estados fisiológicos, los métodos regulares fueron precisos para los comportamientos de los grupos localización y postura y para comportamientos funcionales de larga duración. Por otro lado, los coeficientes de variación de los comportamientos poco frecuentes realizados principalmente durante el periodo de oscuridad fueron muy altos, y el método irregular largo obtuvo los menores errores de estimación para éstos comportamientos. En el experimento 3, se estudió el efecto de un uso combinado de lactaciones largas (hasta 46 días) con jaulas alternativas sobre los parámetros productivos y reproductivos de 104 conejas y sus camadas durante cinco ciclos reproductivos. La mitad de las conejas fueron alojadas en jaulas polivalentes convencionales (39 cm x 100 cm x 30 cm) y la otra mitad en jaulas polivalentes alternativas (39 cm x 100 cm x 60 cm), con una plataforma elevada. Dentro de cada grupo de alojamiento, la mitad de las conejas se destetaron a 32 días y la otra mitad a 46 días tras el parto. Las lactaciones más largas afectaron negativamente al peso (P<0,001), contenido en grasa y energía (P<0,05) de las conejas al final del periodo de lactación, pero éste efecto disminuyó con el número de partos. La fertilidad, prolificidad y la mortalidad de las conejas no fue afectada por la duración de la lactación. El destete tardío dio lugar a un mayor tamaño y peso de la camada al final del periodo de crecimiento (8,9 y 11,3 %, respectivamente) y a un menor índice de conversión por jaula durante el todo el periodo experimental (13,5 %) con respecto al destete convencional (P<0,001). Éstos resultados fueron paralelos a la menor mortalidad global (12,6 vs 17,6 %; P<0,05) observada en gazapos con destete tardío. Las diferencias en los parámetros productivos con las distintas edades al destete sólo fueron observadas en los ciclos con peor estado sanitario (tercer y quinto ciclo), en los cuales el destete tardío redujo la mortalidad. El tipo de jaula no afectó al peso de la coneja, condición corporal, mortalidad, fertilidad ni tamaño de camada durante los cinco primeros ciclos reproductivos. Sin embargo, el peso de la camada y el índice de conversión a los 21 días de edad fueron 4,2% mayor (P<0,001) y 5,0% menor (P<0,005) en animales alojados en jaulas alternativas que en jaulas convencionales. A día 59 las jaulas alternativas dieron lugar a camadas más pesadas (P<0,01); sin embargo, éste efecto fue influenciado por la densidad alcanzada en cada ciclo, ya que cuando la densidad de los animales fue menor que 40kg/m2 (tercer y quinto ciclo), el efecto del tipo de jaula sobre el peso de la camada no fue significativo. De los resultados obtenidos se puede concluir que el uso combinado de lactaciones más largas y jaulas con mayor superficie disponible con una plataforma elevada podría ser una alternativa para mejorar el bienestar animal en determinadas situaciones productivas. ABSTRACT The general aim of this PhD Thesis was to evaluate new housing and husbandry systems of farmed rabbits, studying behavioral (experiment 1), productive and reproductive (experiment 3) parameters. Moreover, different sampling techniques were evaluated in order to optimize the assessment of rabbit behaviour (experiment 2). In experiment 1, the behaviour of rabbit does housed in two different types of cage (TC), conventional vs. alternative with an elevated platform, at different physiological stages (PS), lactation and gestation was to study. Behavioural observations were carried out on 12 commercial rabbit does using continuous 24 hour video recording. Independently of PS and TC, rabbit does spent most of their time on foot mats (57.7 %, as average). However, due to the use of platforms (23.0% of time, as average), lactating does spent 36.6% less time (P<0.001) on foot mats and gestating does spent 27.0% less (P<0.001) time on wire mesh in alternative cages than in conventional cages. Alternative cages allowed for standing posture but this behaviour was only observed in gestating does (4.6 times a day, as average). Frequency of drinking was higher in conventional than in alternative cages (24.6 vs. 19.1 times a day; P<0.05). Gestating does housed in conventional cages reached the highest duration and frequency of interacting with neighbours (276 s/d and 4.6 times/d; P<0.05). The frequency of interacting with kits was lower in alternative than in conventional cages (2.4 vs. 8.6 times a day; P<0.01). Does’ behaviour was influenced by hour of day, being less active at the midday hours. During dark hours rabbit does more frequently performed restless behaviour such as hyperactivity or nursing, matching the time at which rabbit does spent more time on the platform. The platform was frequently used by rabbit does, independent of their physiological state, and during late lactation phase, when mothers were not receptive to nursing, does housed in alternative cages used the platform as a mean to flee from kids trying to suckle. The use of the platform might lead to hygienic problems due to retained faeces on the platform and faeces and urine falling onto animals located in the lower part of the cage. Stereotypies were not observed in any housing system, therefore conventional cages do not suggest lack of animal welfare. In experiment 2, it was compared the results of different simplified sampling methods of behavioural data with respect to reference records of 24-h in order to assess rabbit does behaviours at different physiological stages (gestation and lactation) in animals housed in two types of cages (conventional and alternative). A total of 576 h of continuous video of 12 rabbit does at the end of lactation and on the same females after weaning were analysed. The behavioural observations were studied using three independent categories of classification (location in the cage, posture and functional behaviours). Continuous behavioural recordings of 24 h were considered as the reference method to validate another 4 sampling methods of data collection by aggregated video recordings of different frequency and duration (regular short and long methods with 2.4 and 8 h of observation respectively, and irregular short and long methods with 6 and 8 h of observation, respectively). The current results showed that, independently of housing system, the best method to reduce the total observation time required to assess rabbit does behaviour depends on the trait studied and physiological stage of does. In gestating does, irregular methods were not suitable to estimate behaviours of long duration such as lying, sitting, resting and grooming. However, in both physiological stages, regular methods were accurate for location behaviours, postures and functional behaviours of long duration. Instead, for the study of infrequent behaviours performed mainly during dark period, where coefficients of variation were high, the irregular long method led to the lowest mean estimation errors. In experiment 3, the effects of the combined use of long lactation periods (46 days) with alternative cages on the reproductive and growth performance of 104 rabbit does and their litters during five consecutive reproductive cycles were studied. Half of does were housed in conventional polyvalent cages (39 cm x 100 cm x 30 cm) and the other half in alternative polyvalent cages (39 cm x 100 cm x 60 cm), with a raised platform. Half of the rabbit does in each type of cages were weaned at 32 and the other half at 46 days after parturition. Longer lactations affected negatively to body weight (P<0.001), fat and energy content (P<0.05) of rabbit does at the end of the lactation period, but this effect decreased with the number of parturitions. Fertility, prolificacy and doe mortality were not affected by lactation length. Late weaning led to higher litter size (by 8.9 %) and litter weight (by 11.3 %) at the end of growing period and lower feed conversion ratio per cage during the overall experimental period (13.5 %) than standard weaning (P<0.001). These results were parallels to a lower mortality (12.6 vs 17.6 %; P<0.05) of young rabbit weaned later during the overall experimental period. Differences in performances at different weaning ages were only observed during cycles with worst health status (third and fifth cycles) in which late weaning decreased mortality. Type of cage did not affect doe body weight and body condition, mortality, fertility, prolificacy and litter size during the five firsts reproductive cycles. Nevertheless, at day 21 litter weight and feed conversion ratio were 4.2 % higher (P<0.001) and 5.0 % lower (P<0.005) in animals housed in alternative than in conventional cages. Alternative cages also led to heavier litters at 59 days (P<0.01); however, this effect was influenced by density reached in each cycle, as when the density of animals was lower than 40 kg/m2 (cycles three and five), the difference of litter weight between alternative and conventional cages was not significant. From the results obtained it can be concluded that the combined use of longer lactations and cages with higher available surface with a raised platform could be an alternative to improve animal welfare in some productive situations.
Resumo:
La Tesis estudia un tipo de refugio ganadero de la Cuenca Alta del río Tajo, conocidos como chozones. Singular arquitectura ligada a la ganadería extensiva ovina que servía de abrigo al ganado durante la noche invernal y umbráculo en estío. Construcciones de muros bajos de mampuesto colocados a hueso de planta circular o rectangular, levantadas alrededor de una estructura leñosa o un árbol en posición de vida que soportan una cubierta de ramas de la poda de la sabina. Son cientos diseminados por toda la región, si bien concentrados en la Sesma del sabinar, una de las cuatro divisiones históricas del Señorío de Molina. La decadencia de la ganadería en la comarca, sumada a otras causas de sociales y económicas, ha llevado a que estén cada vez en peor estado de conservación; con todo lo que ello supone de pérdida de una memoria histórica inseparable del paisaje del que son parte. Mi primera aproximación a estos refugios fue una oferta que aceptó el equipo de dirección del Parque Natural del Alto Tajo para catalogar los que se encontraban en su área de protección, un paisaje de Alto Valor Natural donde la ganadería ha sido el sustento tradicional. Tras terminar el inventario se produjo el gran incendio en Riba de Saélices (2005). Además de calcinar a 11 retenes voluntarios, quemó parte de las chozones inventariados. Tomé entonces consciencia de la fragilidad de este patrimonio popular y del valor que cobraba el trabajo realizado, pues en muchos casos era el único testimonio que había de los chozones desaparecidos. De ahí nació esta investigación. Al comienzo el enfoque analítico fue eminentemente disciplinar, como recoge la primera parte del título de la tesis: arquitectura y construcción. Pronto comprendí que este enfoque no era suficiente para entender las preguntas dejadas abierta por el análisis espacial, tales como su origen, razón de ser, función social, etc. Profundizando en estos temas la investigación fue haciéndose más amplia y transversal, hasta llegar a lo indicado en la segunda parte del título: paisaje y territorio. En síntesis, la tesis pasó del análisis de un objeto en sí a su entendimiento como parte de una sociedad y un paisaje del que es indisoluble. Para lograr estos objetivos transversales, los refugios ganaderos se estudiaron considerando desde sus aspectos geográficos e históricos a los propios de la arquitectura y del sistema ganadero que acoge. A cada enfoque se dedica un capítulo de la Tesis, lo que nos obligó a utilizar distintas metodologías de análisis: de un amplio trabajo de campo para catalogar y levantar los casi un centenar de chozones inventariados a la búsqueda de información documental en archivos históricos. Por el carácter del estudio fue también fundamental la revisión del material etnográfico de la zona, así como las entrevistas con vecinos y los pocos pastores que quedaban en los municipios estudiados. Los resultados de la Tesis muestran que los refugios ganaderos son construcciones con una serie de valores de distinto tipo. Entre ellos destacaría: (a) ambientales, porque son arquitecturas integradas en el medio ambiente, con empleo de materiales del territorio y adaptación a sus condiciones físicas; (b) históricos, porque son testimonio de un patrimonio arquitectónico que al menos desde la Edad Media se mantiene sin apenas modificaciones; (c) etnográficos, porque son un elemento arquitectónico con usos estrechamente ligados a la cultura tradicional, ganadera y rural de la cuenca del Alto Tajo. Tan clara es la relación entre estos tres aspectos que no es exagerado afirmar que desde el comienzo hasta su final, pasando por las distintas actividades cotidianas, la vida de los habitantes de la comarca giraba en torno al patrimonio vernáculo estudiado. Por ello, entendemos que todos estos elementos son lo suficientemente relevantes como para intentar evitar su destrucción, fomentar una reutilización que contribuya a un desarrollo sostenible de este singular paisaje etnológico. ABSTRACT My first approach to these refugees was commissioned by the management of the Alto Tajo Natural Park to catalog those who were in their protection area, a landscape of high natural value where livestock has been the traditional livelihood. After completing the inventory came the great fire in Riba de Saelices (2005). Besides calcine 11 firefighters, burned many of these popular architectures. I took then awareness of the fragility of this vernacular heritage and the value of the work charged, since in many cases it was the only witness who had disappeared from the shelters. At that time, this research was born. At the begging our study was eminently from the point of view of our discipline, as it picks up the first part of the title of the Thesis: architecture and construction. Soon I realized that this approach was not sufficient to understand the questions left open by the spatial analysis, such as its origin, purpose, social function, etc. By studying topics, my research become to be more comprehensive and transversal, up to coming to the indicated in the second part of the title: landscape and territory. In synthesis, the Thesis went on from the analysis of an object in itself to its understanding like part of a society and a landscape of which it is indissoluble. To achieve these cross-cutting objectives, livestock shelters were studied considering from its geographic and historic aspects to this relating to his architecture own the livestock system to which they belong. To each approach we devoted a chapter of the Thesis, which forced us to use different methodologies of analysis: an extensive field work in cataloguing and lift the nearly a hundred chozones inventoried to the search of documentary information in historical archives. By the nature of the study, the review of the ethnographic material in the area was also essential, as well as interviews with neighbors and the few remaining shepherds in the municipalities studied. The results of our Thesis show that livestock shelters are constructions with a series of values of different types. Among them I would highlight three: (a) environmental, because they are architectures integrated in the territory, with the use of materials of the location and adapted to their physical conditions; (b) historical, because they are testimony of an architectural heritage that at least since the Middle Ages remains with little modifications; (c) ethnographic, because they are architectural elements closely linked to livestock, rural and traditional culture of the Alto Tajo basin. So clear is the relationship between these three aspects, that is not an exaggeration to say that from the beginning until the end, passing through the various daily activities, the life of the inhabitants of the region was in completed connection with the studied vernacular heritage. For it, we understand that all these elements are relevant enough to try to prevent their destruction and promote a recycling that contributes to a sustainable development of this unique ethnological landscape.
Resumo:
A pesar de todos los avances realizados en las últimas décadas en el conocimiento sobre numerosos aspectos del Síndrome Respiratorio Bovino (SRB), entre los que se encuentran los factores de riesgo, la etiopatogenia, las características de los agentes causales, el diagnóstico, la terapéutica o la profilaxis y sus efectos globales, el SRB continúa siendo la enfermedad de mayor impacto económico en el ganado vacuno de cebo. Además, parece que tanto su incidencia como las pérdidas que origina siguen estables en los cebaderos de todo el mundo desde hace varias décadas. Sus principales características indican que debemos considerar que es una enfermedad de difícil control dado su carácter multifactorial y con la que, por tanto, debemos acostumbrarnos a convivir aunque aspirando a minimizar tanto su incidencia, como la gravedad de sus consecuencias. Por otro lado, aunque existen muchas técnicas diagnósticas a nuestra disposición, aún no se puede decir que exista una técnica de referencia o “gold standard” para el diagnóstico del SRB, y mucho menos una técnica estandarizada para su diagnóstico precoz. Establecer y estandarizar protocolos para la detección de grupos de animales en riesgo y su monitorización más intensa en fases posteriores del cebo para reducir el consumo de antibióticos de uso preventivo o metafiláctico es de gran interés. Hasta ahora, este tipo de estrategias se han basado en la detección de evidencias de contacto con gérmenes patógenos pulmonares (principalmente análisis de serología). Sin embargo, no debemos olvidar que la identificación de un agente patógeno en ausencia de una lesión y/o signos clínicos atribuibles al mismo, tan sólo es indicativa de contacto previo (no de padecimiento de un proceso de enfermedad) y que, por otro lado, la mayoría de los agentes microbiológicos ligados al SRB son comensales habituales de las vías respiratorias altas. De modo que la identificación de un agente sólo prueba enfermedad si se diagnostica junto con los signos clínicos compatibles de enfermedad y la lesión...
Resumo:
Se ha creído durante mucho tiempo que el quebrantahuesos acomete a los hombres con la intención de matarlos y devorarlos. Esta historia fabulosa, originada en tierras suizas durante el siglo XVIII, contrasta con la mirada inofensiva, o al menos de indiferencia, con la que se le ha caracterizado en la cultura mediterránea. No obstante, la fuerza del mito del Gypaetus barbatus, como un ave dañina y perjudicial para el hombre, derivó en su desprotección como especie hasta prácticamente nuestros días. En este artículo damos a conocer, a rebufo de la mala fama del quebrantón como depredador humano, un antiguo documento en el que se narran los estragos en seres humanos y en ganado atribuidos a un supuesto quebrantahuesos y la muerte, de esta peligrosa bestia, acaecida en el año 1797 en la localidad alicantina de Benimantell.
Resumo:
Una economía necesita una fuerte inversión para mantener una situación de pleno empleo. La hipótesis del estancamiento secular se plantea cuando una inversión deficiente impide el crecimiento económico. El importante impacto de estos desajustes ha provocado que la hipótesis haya ganado importancia en los últimos años. Summers (2014a) expone una serie de evidencias a su favor en el contexto actual de la economía estadounidense. Tomando su estudio como referencia, en este trabajo se intenta replicar el análisis en la economía española. Este descenso en la propensión a invertir se refleja en un cambio en el equilibrio de la economía y se vincula a la caída del tipo de interés real de equilibrio. Por tanto, se analizará la caída en los tipos de interés reales a partir de una estimación de la tasa de inflación en España. Reuniendo los resultados obtenidos, se extrae una conclusión sobre la hipótesis principal y se aportan y discuten otras teorías alternativas relevantes.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Índice.
Resumo:
Issued by the Bureau of Animal Industry.
Resumo:
Los opiáceos producen una serie de efectos farmacológicos en los caballos entre los cuales destaca la analgesia, ejercida principalmente sobre el sistema nervioso central. No obstante, también producen otros efectos no deseados como son sedación, excitación, depresión cardio-respiratoria, disminución de la motilidad gastrointestinal, aumento de la actividad motora, leve hipertermia y, en dosis crecientes, sueño profundo y coma. El representante principal de este grupo farmacológico es la morfina, la cual ejerce un efecto analgésico muy potente en esta especie animal, haciendo que su uso sea de gran interés en la clínica equina. Actualmente, uno de los usos clínicos más interesantes de la morfina es el tratamiento del dolor ortopédico severo en el caballo. Sin embargo, el principal inconveniente es que la morfina también da lugar a las reacciones adversas generales de los opiáceos destacando las producidas sobre la actividad motora (marcha compulsiva), por lo que su uso estaría contraindicado en animales con problemas músculo esqueléticos que requieran guardar reposo. Estos efectos adversos indeseados, así como la ausencia relativa de evidencia con respecto a la producción de analgesia en caballos con enfermedades que se producen de manera natural hacen que su utilización sea más limitada y exista controversia en lo que respecta a su eficacia y uso clínico. Para controlar o prevenir los efectos indeseados de los opiáceos, éstos se pueden administrar dentro de un protocolo de neuroleptoanalgesia, es decir, administrar de manera conjunta un neuroléptico (tranquilizante o sedante) y un analgésico opioide. Esta combinación farmacológica permite reducir la excitación que producen los opiáceos, por lo que supone una buena alternativa en aquellos pacientes que requieran un efecto analgésico potente y en los que queramos evitar el riesgo que suponen algunos efectos adversos de los opiáceos...
Resumo:
Besnoitia besnoiti es un protozoo apicomplejo formador de quistes responsable de la besnoitiosis bovina, una enfermedad crónica y debilitante que origina importantes pérdidas económicas en el ganado bovino a nivel mundial. En la actualidad, no existen tratamientos ni vacunas disponibles y, por tanto, las medidas de control se deben basar en la detección de animales infectados para reducir la prevalencia en zonas endémicas y evitar la entrada de la enfermedad en zonas libres a través de la compra de animales infectados. Los principales retos en la investigación sobre este parásito son, por un lado, la mejora de las técnicas serológicas para realizar un diagnóstico preciso y, por otro lado, el empleo de las nuevas pruebas diagnósticas desarrolladas para determinar el impacto de la enfermedad mediante estudios de prevalencia e incidencia. Dada la rápida diseminación de la besnoitiosis bovina en Europa, se han desarrollado numerosas técnicas de diagnóstico serológico. Sin embargo, éstas no han sido validadas en estudios comparativos y, por ello, los datos epidemiológicos descritos por los diferentes laboratorios, no son comparables. Además, no se ha establecido una prueba de referencia, lo cual es de vital importancia para el establecimiento de un protocolo de diagnóstico común entre los países afectados. Por otra parte, se ha puesto de manifiesto la necesidad de mejorar la sensibilidad (Se) de las pruebas para detectar a los animales infectados durante la fase aguda, así como los infectados durante la fase crónica que presentan niveles bajos de anticuerpos, los cuales en diversas ocasiones se encuentran por debajo del punto de corte de las técnicas diagnósticas. Además, también es necesario mejorar su especificidad (Esp), ya que las actuales pruebas ELISA, que se emplean de forma rutinaria en el diagnóstico de la infección, pueden dar lugar a un elevado número de resultados falsos-positivos que pueden repercutir de forma negativa en la eficacia de los planes de control...
Resumo:
No cabe duda que mi inicial vinculación profesional y durante largos años, a la inspección veterinaria en mataderos ha influido de manera fundamental a la hora de elegir el tema de este trabajo de investigación. La peculiaridad de que los mataderos fueran los únicos establecimientos alimentarios donde a tiempo completo se encuentra destinado un veterinario de la administración, y por otra parte la responsabilidad que asume al tener que determinar la aptitud para el consumo de las carnes sacrificadas, para lo cual debe desplegar todos sus conocimientos profesionales, pronto atrajeron mi interés en conocer los orígenes y la evolución de esta importante faceta veterinaria. Autores bien conocidos en la historia de la veterinaria como Sanz Egaña, habían investigado de forma prolija la incorporación de los veterinarios a la inspección de mataderos, dejando bien claro dónde y cuándo se origino este aspecto veterinario. Este trabajo intenta tener en cuenta diversos factores que pudieron influir y contribuir a que los veterinarios se iniciaran en la inspección de alimentos, así como explicar las circunstancias en las que se produjo, con la finalidad de contextualizar el origen y las causas desde varios puntos de vista. De ese modo, abordamos el estudio del abastecimiento de alimentos en Madrid para el consumo de la población, como contexto social y económico. El abastecimiento de alimentos fue una responsabilidad municipal, y siempre una cuestión de difícil gestión, en la que el Ayuntamiento debía procurar evitar fraudes, defraudaciones fiscales y garantizar la cantidad y calidad de los alimentos abastecidos, adaptándose permanentemente a los cambios de la población madrileña. El Ayuntamiento de Madrid desarrolló un autentico cuerpo legislativo con el fin regular y normalizar el abasto de carnes, inicialmente en forma de “bandos de buen gobierno” y después a través de reglamentos...