122 resultados para Distancias totales recorridas

em Universidad Politécnica de Madrid


Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la actualidad, los vehículos de combustión interna en Estados Unidos emiten 1,7 billones de toneladas de efecto invernadero (principalmente en forma de CO2), contribuyendo así al cambio climático. Este efecto es más significativo en las grandes ciudades, donde la densidad de vehículos y de tráfico es mayor y los efectos sobre la salud son mucho más destacables. Uno de los objetivos prioritarios a nivel mundial para reducir estas emisiones a la atmósfera, consiste en promover la electrificación del transporte. En una primera etapa, la incorporación de vehículos eléctricos en el transporte público supondría una innovadora y ejemplar medida para la sociedad. Pese a sus ventajas, los vehículos eléctricos tienen que superar algunas barreras previas antes de su despliegue a gran escala: principalmente los relacionados con su poca autonomía y su elevado tiempo de recarga. El OBJETIVO de este Trabajo Fin de Grado (TFG) consiste en el desarrollo de una plataforma que permita estudiar la viabilidad técnica de la transición de los vehículos de combustión interna a vehículos eléctricos en una flota de taxis. El proyecto “cabsportting”, en San Francisco (EEUU), monitoriza a los taxis de la compañía Yellow Cabs, almacenando la información geo-temporal extraída de un GPS instalado en cada vehículo así como la ocupación del mismo en una base de datos pública. Utilizando esta base de datos, se estudiarán las distancias diarias recorridas, las distancias recorridas entre las paradas realizadas por los taxis diariamente, las velocidades medias diarias de dichos vehículos, la duración de cada una de las paradas y su localización geográfica. Con toda esta información, se evaluará el grado de electrificabilidad de esta flota de taxis, detallando qué porcentaje de vehículos pueden realizar los trayectos diarios teniendo en cuenta la autonomía de un vehículo eléctrico (VE) y sus posibles recargas intermedias. La herramienta desarrollada en este TFG puede ser utilizada por las distintas administraciones para evaluar la introducción de VEs en otro tipo de flotas urbanas tales como Correos, furgonetas de reparto, flota de recogida de basura, autobuses urbanos, etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMEN La dispersión del amoniaco (NH3) emitido por fuentes agrícolas en medias distancias, y su posterior deposición en el suelo y la vegetación, pueden llevar a la degradación de ecosistemas vulnerables y a la acidificación de los suelos. La deposición de NH3 suele ser mayor junto a la fuente emisora, por lo que los impactos negativos de dichas emisiones son generalmente mayores en esas zonas. Bajo la legislación comunitaria, varios estados miembros emplean modelos de dispersión inversa para estimar los impactos de las emisiones en las proximidades de las zonas naturales de especial conservación. Una revisión reciente de métodos para evaluar impactos de NH3 en distancias medias recomendaba la comparación de diferentes modelos para identificar diferencias importantes entre los métodos empleados por los distintos países de la UE. En base a esta recomendación, esta tesis doctoral compara y evalúa las predicciones de las concentraciones atmosféricas de NH3 de varios modelos bajo condiciones, tanto reales como hipotéticas, que plantean un potencial impacto sobre ecosistemas (incluidos aquellos bajo condiciones de clima Mediterráneo). En este sentido, se procedió además a la comparación y evaluación de varias técnicas de modelización inversa para inferir emisiones de NH3. Finalmente, se ha desarrollado un modelo matemático simple para calcular las concentraciones de NH3 y la velocidad de deposición de NH3 en ecosistemas vulnerables cercanos a una fuente emisora. La comparativa de modelos supuso la evaluación de cuatro modelos de dispersión (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 y LADD v2010) en un amplio rango de casos hipotéticos (dispersión de NH3 procedente de distintos tipos de fuentes agrícolas de emisión). La menor diferencia entre las concentraciones medias estimadas por los distintos modelos se obtuvo para escenarios simples. La convergencia entre las predicciones de los modelos fue mínima para el escenario relativo a la dispersión de NH3 procedente de un establo ventilado mecánicamente. En este caso, el modelo ADMS predijo concentraciones significativamente menores que los otros modelos. Una explicación de estas diferencias podríamos encontrarla en la interacción de diferentes “penachos” y “capas límite” durante el proceso de parametrización. Los cuatro modelos de dispersión fueron empleados para dos casos reales de dispersión de NH3: una granja de cerdos en Falster (Dinamarca) y otra en Carolina del Norte (EEUU). Las concentraciones medias anuales estimadas por los modelos fueron similares para el caso americano (emisión de granjas ventiladas de forma natural y balsa de purines). La comparación de las predicciones de los modelos con concentraciones medias anuales medidas in situ, así como la aplicación de los criterios establecidos para la aceptación estadística de los modelos, permitió concluir que los cuatro modelos se comportaron aceptablemente para este escenario. No ocurrió lo mismo en el caso danés (nave ventilada mecánicamente), en donde el modelo LADD no dio buenos resultados debido a la ausencia de procesos de “sobreelevacion de penacho” (plume-rise). Los modelos de dispersión dan a menudo pobres resultados en condiciones de baja velocidad de viento debido a que la teoría de dispersión en la que se basan no es aplicable en estas condiciones. En situaciones de frecuente descenso en la velocidad del viento, la actual guía de modelización propone usar un modelo que sea eficaz bajo dichas condiciones, máxime cuando se realice una valoración que tenga como objeto establecer una política de regularización. Esto puede no ser siempre posible debido a datos meteorológicos insuficientes, en cuyo caso la única opción sería utilizar un modelo más común, como la versión avanzada de los modelos Gausianos ADMS o AERMOD. Con el objetivo de evaluar la idoneidad de estos modelos para condiciones de bajas velocidades de viento, ambos modelos fueron utilizados en un caso con condiciones Mediterráneas. Lo que supone sucesivos periodos de baja velocidad del viento. El estudio se centró en la dispersión de NH3 procedente de una granja de cerdos en Segovia (España central). Para ello la concentración de NH3 media mensual fue medida en 21 localizaciones en torno a la granja. Se realizaron también medidas de concentración de alta resolución en una única localización durante una campaña de una semana. En este caso, se evaluaron dos estrategias para mejorar la respuesta del modelo ante bajas velocidades del viento. La primera se basó en “no zero wind” (NZW), que sustituyó periodos de calma con el mínimo límite de velocidad del viento y “accumulated calm emissions” (ACE), que forzaban al modelo a calcular las emisiones totales en un periodo de calma y la siguiente hora de no-calma. Debido a las importantes incertidumbres en los datos de entrada del modelo (inputs) (tasa de emisión de NH3, velocidad de salida de la fuente, parámetros de la capa límite, etc.), se utilizó el mismo caso para evaluar la incertidumbre en la predicción del modelo y valorar como dicha incertidumbre puede ser considerada en evaluaciones del modelo. Un modelo dinámico de emisión, modificado para el caso de clima Mediterráneo, fue empleado para estimar la variabilidad temporal en las emisiones de NH3. Así mismo, se realizó una comparativa utilizando las emisiones dinámicas y la tasa constante de emisión. La incertidumbre predicha asociada a la incertidumbre de los inputs fue de 67-98% del valor medio para el modelo ADMS y entre 53-83% del valor medio para AERMOD. La mayoría de esta incertidumbre se debió a la incertidumbre del ratio de emisión en la fuente (50%), seguida por la de las condiciones meteorológicas (10-20%) y aquella asociada a las velocidades de salida (5-10%). El modelo AERMOD predijo mayores concentraciones que ADMS y existieron más simulaciones que alcanzaron los criterios de aceptabilidad cuando se compararon las predicciones con las concentraciones medias anuales medidas. Sin embargo, las predicciones del modelo ADMS se correlacionaron espacialmente mejor con las mediciones. El uso de valores dinámicos de emisión estimados mejoró el comportamiento de ADMS, haciendo empeorar el de AERMOD. La aplicación de estrategias destinadas a mejorar el comportamiento de este último tuvo efectos contradictorios similares. Con el objeto de comparar distintas técnicas de modelización inversa, varios modelos (ADMS, LADD y WindTrax) fueron empleados para un caso no agrícola, una colonia de pingüinos en la Antártida. Este caso fue empleado para el estudio debido a que suponía la oportunidad de obtener el primer factor de emisión experimental para una colonia de pingüinos antárticos. Además las condiciones eran propicias desde el punto de vista de la casi total ausencia de concentraciones ambiente (background). Tras el trabajo de modelización existió una concordancia suficiente entre las estimaciones obtenidas por los tres modelos. De este modo se pudo definir un factor de emisión de para la colonia de 1.23 g NH3 por pareja criadora por día (con un rango de incertidumbre de 0.8-2.54 g NH3 por pareja criadora por día). Posteriores aplicaciones de técnicas de modelización inversa para casos agrícolas mostraron también un buen compromiso estadístico entre las emisiones estimadas por los distintos modelos. Con todo ello, es posible concluir que la modelización inversa es una técnica robusta para estimar tasas de emisión de NH3. Modelos de selección (screening) permiten obtener una rápida y aproximada estimación de los impactos medioambientales, siendo una herramienta útil para evaluaciones de impactos en tanto que permite eliminar casos que presentan un riesgo potencial de daño bajo. De esta forma, lo recursos del modelo pueden Resumen (Castellano) destinarse a casos en donde la posibilidad de daño es mayor. El modelo de Cálculo Simple de los Límites de Impacto de Amoniaco (SCAIL) se desarrolló para obtener una estimación de la concentración media de NH3 y de la tasa de deposición seca asociadas a una fuente agrícola. Está técnica de selección, basada en el modelo LADD, fue evaluada y calibrada con diferentes bases de datos y, finalmente, validada utilizando medidas independientes de concentraciones realizadas cerca de las fuentes. En general SCAIL dio buenos resultados de acuerdo a los criterios estadísticos establecidos. Este trabajo ha permitido definir situaciones en las que las concentraciones predichas por modelos de dispersión son similares, frente a otras en las que las predicciones difieren notablemente entre modelos. Algunos modelos nos están diseñados para simular determinados escenarios en tanto que no incluyen procesos relevantes o están más allá de los límites de su aplicabilidad. Un ejemplo es el modelo LADD que no es aplicable en fuentes con velocidad de salida significativa debido a que no incluye una parametrización de sobreelevacion del penacho. La evaluación de un esquema simple combinando la sobreelevacion del penacho y una turbulencia aumentada en la fuente mejoró el comportamiento del modelo. Sin embargo más pruebas son necesarias para avanzar en este sentido. Incluso modelos que son aplicables y que incluyen los procesos relevantes no siempre dan similares predicciones. Siendo las razones de esto aún desconocidas. Por ejemplo, AERMOD predice mayores concentraciones que ADMS para dispersión de NH3 procedente de naves de ganado ventiladas mecánicamente. Existe evidencia que sugiere que el modelo ADMS infraestima concentraciones en estas situaciones debido a un elevado límite de velocidad de viento. Por el contrario, existen evidencias de que AERMOD sobreestima concentraciones debido a sobreestimaciones a bajas Resumen (Castellano) velocidades de viento. Sin embrago, una modificación simple del pre-procesador meteorológico parece mejorar notablemente el comportamiento del modelo. Es de gran importancia que estas diferencias entre las predicciones de los modelos sean consideradas en los procesos de evaluación regulada por los organismos competentes. Esto puede ser realizado mediante la aplicación del modelo más útil para cada caso o, mejor aún, mediante modelos múltiples o híbridos. ABSTRACT Short-range atmospheric dispersion of ammonia (NH3) emitted by agricultural sources and its subsequent deposition to soil and vegetation can lead to the degradation of sensitive ecosystems and acidification of the soil. Atmospheric concentrations and dry deposition rates of NH3 are generally highest near the emission source and so environmental impacts to sensitive ecosystems are often largest at these locations. Under European legislation, several member states use short-range atmospheric dispersion models to estimate the impact of ammonia emissions on nearby designated nature conservation sites. A recent review of assessment methods for short-range impacts of NH3 recommended an intercomparison of the different models to identify whether there are notable differences to the assessment approaches used in different European countries. Based on this recommendation, this thesis compares and evaluates the atmospheric concentration predictions of several models used in these impact assessments for various real and hypothetical scenarios, including Mediterranean meteorological conditions. In addition, various inverse dispersion modelling techniques for the estimation of NH3 emissions rates are also compared and evaluated and a simple screening model to calculate the NH3 concentration and dry deposition rate at a sensitive ecosystem located close to an NH3 source was developed. The model intercomparison evaluated four atmospheric dispersion models (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 and LADD v2010) for a range of hypothetical case studies representing the atmospheric dispersion from several agricultural NH3 source types. The best agreement between the mean annual concentration predictions of the models was found for simple scenarios with area and volume sources. The agreement between the predictions of the models was worst for the scenario representing the dispersion from a mechanically ventilated livestock house, for which ADMS predicted significantly smaller concentrations than the other models. The reason for these differences appears to be due to the interaction of different plume-rise and boundary layer parameterisations. All four dispersion models were applied to two real case studies of dispersion of NH3 from pig farms in Falster (Denmark) and North Carolina (USA). The mean annual concentration predictions of the models were similar for the USA case study (emissions from naturally ventilated pig houses and a slurry lagoon). The comparison of model predictions with mean annual measured concentrations and the application of established statistical model acceptability criteria concluded that all four models performed acceptably for this case study. This was not the case for the Danish case study (mechanically ventilated pig house) for which the LADD model did not perform acceptably due to the lack of plume-rise processes in the model. Regulatory dispersion models often perform poorly in low wind speed conditions due to the model dispersion theory being inapplicable at low wind speeds. For situations with frequent low wind speed periods, current modelling guidance for regulatory assessments is to use a model that can handle these conditions in an acceptable way. This may not always be possible due to insufficient meteorological data and so the only option may be to carry out the assessment using a more common regulatory model, such as the advanced Gaussian models ADMS or AERMOD. In order to assess the suitability of these models for low wind conditions, they were applied to a Mediterranean case study that included many periods of low wind speed. The case study was the dispersion of NH3 emitted by a pig farm in Segovia, Central Spain, for which mean monthly atmospheric NH3 concentration measurements were made at 21 locations surrounding the farm as well as high-temporal-resolution concentration measurements at one location during a one-week campaign. Two strategies to improve the model performance for low wind speed conditions were tested. These were ‘no zero wind’ (NZW), which replaced calm periods with the minimum threshold wind speed of the model and ‘accumulated calm emissions’ (ACE), which forced the model to emit the total emissions during a calm period during the first subsequent non-calm hour. Due to large uncertainties in the model input data (NH3 emission rates, source exit velocities, boundary layer parameters), the case study was also used to assess model prediction uncertainty and assess how this uncertainty can be taken into account in model evaluations. A dynamic emission model modified for the Mediterranean climate was used to estimate the temporal variability in NH3 emission rates and a comparison was made between the simulations using the dynamic emissions and a constant emission rate. Prediction uncertainty due to model input uncertainty was 67-98% of the mean value for ADMS and between 53-83% of the mean value for AERMOD. Most of this uncertainty was due to source emission rate uncertainty (~50%), followed by uncertainty in the meteorological conditions (~10-20%) and uncertainty in exit velocities (~5-10%). AERMOD predicted higher concentrations than ADMS and more of the simulations met the model acceptability criteria when compared with the annual mean measured concentrations. However, the ADMS predictions were better correlated spatially with the measurements. The use of dynamic emission estimates improved the performance of ADMS but worsened the performance of AERMOD and the application of strategies to improved model performance had similar contradictory effects. In order to compare different inverse modelling techniques, several models (ADMS, LADD and WindTrax) were applied to a non-agricultural case study of a penguin colony in Antarctica. This case study was used since it gave the opportunity to provide the first experimentally-derived emission factor for an Antarctic penguin colony and also had the advantage of negligible background concentrations. There was sufficient agreement between the emission estimates obtained from the three models to define an emission factor for the penguin colony (1.23 g NH3 per breeding pair per day with an uncertainty range of 0.8-2.54 g NH3 per breeding pair per day). This emission estimate compared favourably to the value obtained using a simple micrometeorological technique (aerodynamic gradient) of 0.98 g ammonia per breeding pair per day (95% confidence interval: 0.2-2.4 g ammonia per breeding pair per day). Further application of the inverse modelling techniques for a range of agricultural case studies also demonstrated good agreement between the emission estimates. It is concluded, therefore, that inverse dispersion modelling is a robust technique for estimating NH3 emission rates. Screening models that can provide a quick and approximate estimate of environmental impacts are a useful tool for impact assessments because they can be used to filter out cases that potentially have a minimal environmental impact allowing resources to be focussed on more potentially damaging cases. The Simple Calculation of Ammonia Impact Limits (SCAIL) model was developed as a screening model to provide an estimate of the mean NH3 concentration and dry deposition rate downwind of an agricultural source. This screening tool, based on the LADD model, was evaluated and calibrated with several experimental datasets and then validated using independent concentration measurements made near sources. Overall SCAIL performed acceptably according to established statistical criteria. This work has identified situations where the concentration predictions of dispersion models are similar and other situations where the predictions are significantly different. Some models are simply not designed to simulate certain scenarios since they do not include the relevant processes or are beyond the limits of their applicability. An example is the LADD model that is not applicable to sources with significant exit velocity since the model does not include a plume-rise parameterisation. The testing of a simple scheme combining a momentum-driven plume rise and increased turbulence at the source improved model performance, but more testing is required. Even models that are applicable and include the relevant process do not always give similar predictions and the reasons for this need to be investigated. AERMOD for example predicts higher concentrations than ADMS for dispersion from mechanically ventilated livestock housing. There is evidence to suggest that ADMS underestimates concentrations in these situations due to a high wind speed threshold. Conversely, there is also evidence that AERMOD overestimates concentrations in these situations due to overestimation at low wind speeds. However, a simple modification to the meteorological pre-processor appears to improve the performance of the model. It is important that these differences between the predictions of these models are taken into account in regulatory assessments. This can be done by applying the most suitable model for the assessment in question or, better still, using multiple or hybrid models.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tesis Doctoral quiere investigar e indagar, mediante la lectura y reorganización de textos variados y dispersos, y a través del estudio de ejemplos concretos de arquitectura (tanto actuales como clásicos), algunos principios que los arquitectos parecemos haber olvidado a la hora de proyectar nuestros edifi cios y nuestras ciudades, separándonos de la percepción por nuestros sentidos y creando un nuevo mundo cada vez más frío y deshumanizado. La arquitectura no puede ser entendida sólo como un refugio, como una caja aséptica y abstracta, sino que es un ambiente, lleno de percepciones y sensaciones corpóreas fruto de su relación escalar con el hombre. Pretendemos, mediante la combinación de textos de autores diversos, dibujos analíticos propios y experiencias personales y, mediante un enfoque general que debe ser riguroso y científi co, volver a reconocer a la arquitectura como máquina de generación de percepciones y experiencias para recuperar al funcionamiento de nuestros sentidos como una herramienta más, quizás la primordial, en la producción del proyecto arquitectónico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los últimos años las ventas de vehículos eléctricos han crecido significativamente. Ya hay modelos en el mercado que pueden satisfacer las necesidades reales de movilidad de los posibles compradores, pero se ha detectado que existe mucha reticencia a su adquisición por desconocimiento de su autonomía real. El objetivo de este trabajo de fin de grado es diseñar una aplicación móvil que ayude a la toma de esta decisión. Para ello, se analizará el perfil de movimiento diario de los usuarios, registrando los diferentes trayectos que realicen, midiendo las velocidades y distancias recorridas, así como la localización de las paradas y su duración. Se clasificará a cada usuario en función del porcentaje de trayectos "en modo eléctrico" que pueda realizar. Adicionalmente, y partiendo de los datos registrados, se realizará una comparativa de los costes que tiene un usuario con su vehículo actual, y los que tendría con un modelo eléctrico realizando los mismos trayectos. Cuantos más viajes realice este usuario, mayor será la precisión de los resultados obtenidos por la aplicación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis de la actividad física de un futbolista resulta esencial para determinar sus necesidades específicas dentro de la competición con el objetivo de mejorar el rendimiento. Este estudio pretende analizar las acciones de alta intensidad (>21km/h) que realizan los jugadores del Real Madrid en la temporada 2011/2012 tanto por posiciones como por periodos del encuentro. Los 13 sujetos estudiados en la temporada fueron divididos en tres grupos, defensas, medios y delanteros para su posterior estudio. Los resultados del estudio corroboran lo estudiado anteriormente por otros autores, realizando mayor número de acciones y mayores distancias recorridas en las primeras partes que en las segundas. Las conclusiones muestran como los esfuerzos de cada jugador corresponden con la posición que ocupen en el campo y el sistema de juego de cada entrenador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo del presente estudio fue analizar si el test de velocidad crítica en natación predice adecuadamente el rendimiento específico en natación durante la competición en el MedioIronman. Para ello, 11 triatletas amateur fueron evaluados en ambas situaciones: 1) test de velocidad crítica y 2) Bloque de natación en la competición de MedioIronman. La primera situación de evaluación consistió en la realización del test de velocidad crítica en natación sobre las distancias de 200 y 400 metros, realizándose a partir de dichos datos la estimación del tiempo de la prueba de competición. La segunda situación de evaluación fue el bloque de nado en en la competición de MedioIronman. Se analizaron las diferencias y correlación entre ambos tiempos, el estimado por el test de velocidad crítica y el logrado en competición. Los resultados obtenidos confirman una relación positiva y significativa (r=0,82, p<0,05) entre la estimación del test de velocidad crítica y los tiempos obtenidos en competición. Igualmente, se observó una disminución del tiempo obtenido en competición respecto a la estimación del test, aunque dichas diferencias no fueron significativas (P = 0,16, t=7,823, gl = 10). Teniendo en cuenta estos resultados, podría afirmarse que el test de velocidad crítica predice adecuadamente los tiempos de competición de MedioIronman en triatletas amateur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Todo material que llega a obra lo hace protegido por algún tipo de embalaje, fundamentalmente cartón, plástico o madera, y en la actualidad la gran mayoría acaba en un contenedor mezclado con el resto de residuos de la obra. La creciente tendencia a utilizar materiales prefabricados incrementa el volumen de embalajes necesarios para transportar los productos; además los materiales tradicionales también llegan más protegidos a base de embalajes, para minimizar las devoluciones, por lo que en el global del residuo de la obra, el porcentaje que alcanza el volumen que suponen los diversos embalajes asciende al 50%. Con los niveles de producción que ha alcanzado la actividad de la construcción en el sector de edificación, es indudable la necesidad de una gestión adecuada de los residuos de construcción; este trabajo defiende la viabilidad de una gestión específica para los materiales procedentes de embalajes de productos de construcción, incluyendo un manual de buenas prácticas y unas propuestas de valorización. Para ello se realiza una clasificación de los diferentes materiales que constituyen los embalajes habituales en una obra, se lleva a cabo un estudio de campo recogiendo muestras de los materiales para comprobar su peso y su volumen, y se cuantifican los volúmenes totales de cada uno de los grandes grupos de embalajes: cartón, plástico y madera, que protegen los productos. Los datos se relacionan con el momento de la obra en el que son generados para obtener una evolución descriptiva del residuo de embalajes en el transcurso de la obra. Finalmente se propone un manual de buenas prácticas para lograr la segregación efectiva, y se defiende mediante la aportación de una simulación económica del coste que tendría la gestión si se separasen los embalajes, comparada con la gestión real llevada a cabo sin distinguir entre residuos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los avances tecnológicos de los últimos años han modificado el panorama de las comunicaciones ópticas. Los amplificadores EDFA (Erbium-Doped Fiber Amplifier) han alterado dos aspectos fundamentales de los sistemas WDM (Wavelength Division Multiplexing): el aumento considerable de las distancias de regeneración y además, la tecnología WDM es un medio más económico de incrementar la capacidad de los sistemas que la tecnología TDM (Time Division Multiplexing). Sin embargo, la implementación de sistemas WDM con grandes tramos sin regeneración de señal óptica trae consigo la aparición de nuevos problemas, entre los que se encuentran las no-linealidades en fibra óptica. Estas no-linealidades en fibras de sílice se pueden clasificar en dos categorías: dispersión estimulada (de Raman y de Brillouin) y efectos debidos al índice no lineal de refracción (automodulación y modulación cruzada de fase y mezcla de cuatro ondas). Este Proyecto Fin de Carrera pretende ser un estudio teórico que refleje el actual Estado del Arte de los principales efectos no-lineales que se producen en los sistemas WDM: dispersión estimulada de Raman (SRS, Stimulated Raman Scattering), dispersión estimulada de Brillouin (SBS,Stimulated Brilfouin Scattering), automodulación de fase (SPM, Self-Phase Modulation), modulación cruzada de fase (XPM, Cross-Phase Modulation) y mezcla de cuatro ondas (FWM, Four-Wave Mixing).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El título de esta tesis, utiliza primero una expresión periodística muy conocida sobre esta obra, que expresa muy bien su característica contradictoria, paradójica, siempre entre opuestos, frecuentemente utilizadas por los textos que sobre esta obra se han escrito. La segunda expresión define a esta tesis, incluida en el grupo de investigación sobre el objetivo común de la Crítica Arquitectónica. La casa Malaparte, olvidada durante largo tiempo y venerada en otros momentos, fue elegida por referéndum en 1979 por la revista “Modo (Cien proyectos para recordar)” como la obra más representativa de la arquitectura italiana del siglo XX. Un icono de modernidad en 1979 y paradójicamente no en su momento, ya que difícilmente se podría encuadrar en las tipologías de vivienda moderna de los años treinta. El objetivo de esta tesis es la racionalización del valor de esta obra, admitida de alguna manera en los “manuales de arquitectura moderna”, proponiendo para ello el reconocimiento de sus singularidades y regularidades como elementos de investigación del valor sustantivo de la arquitectura, el polinomio indisociable: contexto, forma, función, construcción. Tenemos datos, textos, hermenéutica. Nuestro método no puede ser otro que la crítica de los datos y texto y la crítica poética. Nuestra tesis, se inserta en este conjunto de crítica arquitectónica, vinculada al método llamado por el Catedrático Dr. Antonio Miranda Regojo “Mírregan-Todorov” que emplearemos como referencia y método para mostrar lo que más nos interesa, la calidad de la arquitectura, su ser, que paradójicamente, difiere de su descripción, de su momento histórico, en fin de todo aquello que en realidad solo la describe, la analiza y la interpreta. Nuestra variación propuesta al modelo de referencia, consta del siguiente desarrollo: 1. Crítica de “La Crítica”. 2. Crítica poética. 3. Conclusiones El primer capítulo, propone “La Crítica”, entendida como ese valor colectivo depositado por los textos escritos sobre la obra contrastado con nuestras observaciones personales respecto de cada uno de ellos. Las críticas seleccionadas muestran una nube de alternativas relativas a la descripción, análisis e interpretación que sobre la obra se han producido. Este capítulo, constituye una compilación de textos ordenada cronológicamente, que introduce al conocimiento de la obra. Recoge las primeras referencias, los artículos, los libros, las películas y anuncios así como alguno de los textos académicos que se han escrito sobre esta obra. 15 Los artículos seleccionados son los siguientes: Aldo Morbelli 1942. A. Alieri M.Clerici F.Palpacelli y G.Vaccaro 1966. Francesco Venezia con G.Petrusch 1973 Vieri Quilici.1977/1981 G.K.Koenig, 1979 John Hejduk 1980 Audrey Batey 1980. Manfredo Tafuri 1981. Francesco Venezia 1983. Joe Bostik 1989. Vittorio Savi, 1989. Marida Talamona 1989. W. Arets, W. Van der Bergh. 1989. Franco Purinni 1991. Marida Talamona 1997. Bruce Chatwin 1997. Los libros seleccionados han sido: Marida Talamona. Casa Malaparte, Milano 1990. Sergio Attanasio. Curzio Malaparte “Casa come me” Punta del Massullo, tel. 160 Capri. Nápoles 1990 Gianni Petenna. CasaMalaparte, Capri, 1999 Michael McDonough. A house like me. Edit.Clarkson Potter,New York 1999 Mario Ferrari. Adalberto Libera “Casa Malaparte en Capri1938-1942” 2008 Las películas seleccionadas: Il Cristo proibito, 1956 Le Mèpris, 1963 La Pelle, 1981 Anuncio de Hugo Boss 2010 16 Los textos académicos recogidos son: Angela delGaudio. Casa Malaparte. Interventi e restauri. 2003 Nicoletta Setola. Casa Malaparte. Il cantiere le tecnologie i materiali. 2004 Gloria Paz Saravia Ortiz. La casa Malaparte de A.libera. 2007 En el capítulo segundo “Crítica poética” se circunscribe, según la definición utilizada, a lo que en particular tiene como nivel de verdad, por la idoneidad de su construcción, tipología e iconología en relación al lugar (entidad propia, identidad auténtica). Existen algunos estudios que proponen a la casa Malaparte comprendida en la poética común de la obra de su arquitecto, Adalberto Libera. Nuestra posición nada tiene que ver con “la manera de hacer de un autor” se inclina a investigar obras enlazadas por estructuras comunes, reflejo y consecuencia especialmente de la propia arquitectura, nos interesa la poética de la arquitectura, no la de un autor. Realizamos tres ensayos, el primero trata de investigar el “Lugar” contexto de la obra, proponiendo el reconocimiento de un sistema lugar-arquitectura, (Conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí) del que formulamos una serie de definiciones como características de esta relación: la analogía, la simpatía, la emulación, la signatura, la nematología y la sinexión. Concluyendo que la relación encontrada en la Malaparte podría explicarse de esta manera: ninguna mimesis, admite cierta analogía, un camuflaje solo geométrico, sin emulación de “tipismo” alguno, con emulación del modelo continuo de la “caja” desde el ataúd a la humilde vivienda , con “simpatía” como una obra contemporánea, con una fuerte signatura sobre el lugar, en correspondencia a lugar señalado por la historia y a la indeterminación iconológica que propone su arquitectura, (fetiche, simulacro) con una relación “nematológica” a través de su implantación y con una vinculación especial de “sinexión” entre la superficie del lugar y el acomodo de esta arquitectura. Continuamos con la relación propia de la obra y el lugar, concluyendo como la casa Malaparte propone el espacio sobre su cubierta, a modo de patio, de recinto. La obra demuestra que no es únicamente la sustancia material quien protagoniza la acción de “recintar”. El vértigo constituye la materia infranqueable del perímetro. En la Malaparte es el plano arquitectónico, (elevado) el recinto descubierto, el plano que posibilita la máxima relación con el exterior en esta arquitectura. En su interior el paisaje deja de ser fondo y el habitante se incorpora al escenario, se incorpora al paisaje. Te encuentras midiendo, relacionando distancias desde las espículas de pino, rocas, acantilados, barcos, islas, mar hasta la costa de Amalfi. Esta posición sobre el paisaje, es comparada con la casa Kaufman de F.L.Wrigth. El segundo ensayo investiga el proyecto de la obra. Distinguimos entre proyecto-forma, proyecto-origen, proyecto programa, proyecto-acción y proyectos-signo. Encontramos que no existe proyecto-forma que explique la casa Malaparte, tenemos proyectoorigen, proyecto-programa y proyectos-signo suficientes para racionalizar esta obra. Nos encontramos con un proyecto-acción, en permanente discusión, debatido hasta la saciedad, con la finalidad de habitar aquella roca, cuyas proposiciones se contrastan en la obra, ampliando el proceso de proyecto a la propia acción de construir, proyecto y construcción no estan disociados. Los proyectos “signo” de esta obra, nos permiten relacionar la permanencia de un programa, una organización, una comunicación y distribución que entendemos continua y conducida por Malaparte. Lo realmente importante previsto y controlable por aquel: programa y distribución. Nos permitimos afirmar que lo significante continuo es un proyecto–programa limitado a una forma necesaria iniciada por Libera, como una semilla. Su forma es el resultado de un procedimiento, arraigado y condicionado a un terreno. Un proceso que consiste en establecer unas alturas tipo sobre un programa distribuido en planta, y limitado con una construcción racional, tipológica sobre muros de carga, capaz de soportar cualquier programa habitacional, que proporciona inevitablemente un resultado seguro. El tercer ensayo propone una “novela” sobre la manera de construcción de la obra, que nos permite explicar la gran escalera de la Malaparte. Encontramos que la construcción de la Malaparte, también forma parte de un sistema. Este sistema es capaz de generar forma, sin recurrir a las mascaras fijadas por la tradición o las modas, manteniendo su libertad de expresión sin concesiones. Consideramos que en el camino de acceso a la obra que hubo que ejecutarse para tal fin están las claves para la comprensión de su escalera. La escalera de la Malaparte la comprendemos desde la propia accesibilidad a la obra. Su trazado abocinado, su forma “strombata”, es consecuencia para nosotros de sus límites físicos, su elevación, resultado de las cotas que responden a los niveles de los planos de trabajo, incluida la terraza –patio. Su expresión geométrica sería visible desde la ejecución de las obras; no es posterior al paralelepípedo inicial, sino previa. Su función de acceso a la terraza no es la principal, excluida desde el proyecto administrativo de Libera, al texto escrito de Malaparte sobre su casa (ninguna escalera exterior). Sus funciones principales subyacentes que quedan envueltas son primeramente abastecer la obra, en segundo lugar como cubierta de la escalera interior que tuvo que salir de su posición centrada en el paralelepípedo inicial, al extremo exterior de este. La solución a estas necesidades acuciantes, mostrarían su función paradigmática en un tercer lugar, su solución como cubierta peldañeada, como fachada remontable, que se produce desde nuestra visión del exterior, la gran escalera de acceso al lugar principal y el hecho único y genial de la Malaparte. Las conclusiones finales de esta tesis están referidas en primer lugar al Texto escrito sobre la obra y en segundo lugar a la obra misma: La Casa es entendida en los textos analizados, como objeto que soporta simultáneamente la idea romántica de emoción-inspiración y la contemporánea de invitación a su conocimiento. Producto de su singular abstracción explicamos su transformación en lo que constatamos dos vías extremas: una como artefacto, trasto inútil y pretencioso que explica las críticas extremas de Koening y Durante. Habría que demoler la Malaparte, y por la otra se produce su transformación en “objeto artístico” (inspiraciónemoción– conocimiento) que hay que venerar. Este trinomio deviene en interpretación y de aquí su provocación hacia la literatura, el cine y la imagen sobre la obra. Ambos extremos podrían originarse por no comprender, por no llegar a explicar cómo este objeto es también casa, casa con patio, habitación, refugio, arquitectura con toda su contingencia que con coherencia, razón y libertad de expresión produce aquel objeto, con la única intencionalidad acuciante de ser construido y habitado. El gran valor “literario-artístico” de la Malaparte recogido en sus textos, debemos admitir pues que tiene su origen en la interpretación de lo arquitectónico, que no es evidente, que entendemos no puede deducirse de su mera imagen, del mismo modo que la escultura asociada a un capitel corintio, que algunos pretenden disociar del apoyo constructivo de un pie derecho, como la solución del tímpano- escultura de una portada barroca, que pretendemos separar de la eficacia del dintel, como la cúpula solución a la cubierta del Panteón de Agripa, que estudiamos aparte como un problema de ingeniería, estos aspectos múltiples, complejos y no evidentes producen la fragmentación de lo arquitectónico, y permiten sus interpretaciones independientes, desguazando la arquitectura en trozos muy visibles que algunos llamaron “arte” y sistemas mas ocultos que otros llamaron “ingeniería y técnica”. Contemplar lo humano con fantasía es también nuestra conclusión deductiva de lo que nos permite la Malaparte, su identidad propia y peculiar deducida del Texto. Una arquitectura que permite examinar lo humano con fantasía, también un gran valor común, literario y arquitectónico que no queremos disociar. Si nos afirmamos en la autonomía de la arquitectura, sin renunciar al Texto, su identidad no es más que materialidad, ni menos que la metáfora del habitar diverso del hombre en la tierra. Ambos discursos permanecerán siempre abiertos para poetas y arquitectos. La Malaparte puede explicarse desde el lugar, de su proyecto y su construcción. Podríamos limitarnos aun más, solamente de su realidad congelada actual lograríamos inferir su valor como arquitectura que ha resuelto el problema; cubriendo, superponiendo con rigurosa limpieza, orden y geometría, al caos de accidentalidad y esfuerzo, un resultado despejado, de la materialidad y la técnica, esto es en definitiva el poder de lo arquitectónico, realizado no como máscara superpuesta, sino como resultado coherente, piel viva sobre huesos y músculos necesarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dehesa es el sistema agroforestal español más conocido y estudiado; hoy en día está protegido por la Directiva Hábitats 43/92/CEE (6310-Dehesas perennifolias de Quercus ssp.) e incluida en la red Natura 2000. El objetivo de este trabajo es analizar la contribución del arbolado a la producción y diversidad de los pastos herbáceos en la dehesa del centro peninsular. El trabajo se ha desarrollado en la finca “El Dehesón del Encinar” (Término Municipal de Oropesa, provincia de Toledo), en una parcela de 5 ha representativa de la dehesa tipo en la zona. Se muestrearon marcos de 50 x 50 cm de lado considerando dos posiciones bajo copa según la proximidad del tronco (1/2 radio y en el borde) en cuatro orientaciones: Norte, Sur, Este y Oeste, en 12 encinas en distintas localizaciones dentro de la parcela. Para cada marco de muestreo se estudió la composición florística completa de los pastos herbáceos y la contribución de cada especie a la producción en materia seca. Se utilizó un modelo GLM para ver la relación entre la riqueza específica y otras variables (producción, calidad de estación y situación bajo copa). La diversidad beta fue medida mediante el índice de Whittaker, comparando las comunidades herbáceas en las distintas situaciones presentes. En la zona de estudio encontramos que la calidad de los pastos herbáceos está íntimamente relacionada con la riqueza específica a través de la abundancia de leguminosas. Los valores superiores de riqueza se encontraron en los bordes de las copas del arbolado así como en encinas situadas en las zonas más ricas en leguminosas de la parcela general. Con respecto a la diversidad beta, no existen diferencias notables entre las comunidades de pastos herbáceos bajo las distintas encinas estudiadas; las localizaciones de la parcela con mayor riqueza específica y producción de leguminosas también muestran mayores diferencias (índices de Whittaker superiores) en la comparación de comunidades a distintas distancias del fuste (>50% de especies distintas). Constatamos y cuantificamos la importancia del estrato arbóreo en la producción y diversidad de los pastos herbáceos de la dehesa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Observaciones astronómicas de las distancias medidas con la luminosidad de supernovas Tipo Ia, el espectro CMB y la distribución global de materia sugieren una expansión acelerada del Universo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los trabajos previos en los que se han estudiado las recomendaciones de metionina+cistina para gallinas ponedoras son muy numerosos, pero los resultados obtenidos presentan una gran variabilidad y, en algunos casos, son contradictorios. Esta variabilidad se explica por las condiciones en las que se ha realizado el estudio, la edad de las gallinas, la genética y el parámetro a optimizar. En este sentido, Novak et al. (2004) observaron que las necesidades totales de metionina+cistina eran mayores para maximizar el peso del huevo que para optimizar la producción de huevos o la eficacia alimenticia. Estas diferencias fueron menos importantes entre las 20 y 43 semanas (8%), que de las 44 a las 63 semanas de edad (16%). Además, las recomendaciones para optimizar la producción y el peso del huevo fueron un 17% y 11% mayores, respectivamente, en el primer periodo con respecto al segundo. Por el contrario, Waldroup y Hellwig (1995) encontraron que las necesidades totales de metionina+cistina para optimizar la producción y masa de huevo fueron más elevadas (12 y 10%, respectivamente) de 51 a 71 semanas de edad que de 25 a 45. Cuando las recomendaciones se expresan en unidades digestibles, el rango de necesidades de metionina+cistina digestibles con respecto a lisina digestible varía desde un 81 a un 107% (81%: Coon and Zhang, 1999; 90%: FEDNA, 2008; 91%: Rostagno et al., 2005; 93%: CVB, 1996; 94%: Bregendahl et al., 2008; 99%: Brumano et al., 2010a; 100%: Cupertino et al., 2009; Brumano et al., 2010a; 101%: Brumano et al., 2010b; 107%: Schmidt et al., 2009). Como consecuencia de esta alta variabilidad, es necesario seguir investigando sobre cuál sería el ratio óptimo metionina+cistina/lisina digestible para optimizar los rendimientos de gallinas ponedoras. Por tanto, el objetivo de este trabajo es determinar las necesidades óptimas de metionina+cistina digestibles con respecto a lisina digestible de gallinas Isa Brown desde las 34 a las 42 semanas de edad

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se ha estudiado el efecto de la composición química corporal, estimada mediante el método de impedancia bioeléctrica (BIA) en la primera y segunda inseminación artificial (IA), sobre la fertilidad y la prolificidad de conejas primíparas. Se utilizaron los datos de 137 conejas procedentes de dos granjas que utilizaban dos genéticas distintas (UPV e Hyplus) y tres ritmos reproductivos (R4: inseminación a los 4 días tras el parto y destete a los 28 días, R11: inseminación a los 11 días postparto y destete a 35 días y R14: inseminación a los 14 días tras el parto y destete a los 42 días). La fertilidad media observada en el segundo parto fue de un 56,2% y el porcentaje de nacidos vivos, sobre los nacidos totales, fue de un 87,5%, no encontrándose diferencias entre los ritmos utilizados. El aumento de la proporción de proteína corporal, grasa y energía en la primera IA tuvieron un efecto positivo (P=0,007; P=0,03 y P<0,001, respectivamente) sobre la fertilidad del segundo parto. Igualmente, un mayor contenido en grasa (P<0,001) y energía (P<0,001) en la segunda IA también incrementaron la fertilidad del segundo parto. El incremento del ratio proteína/energía corporal de las conejas, determinado en las dos IA, tuvo un efecto negativo sobre la fertilidad en el segundo parto (P<0,001), observándose mejores resultados en conejas con 12 g proteína/MJ respecto a otras con valores superiores. El porcentaje de nacidos vivos (P<0,001), sobre los nacidos totales, aumentó con la proporción de proteína de las conejas en el momento de la segunda IA, pero esta última no tuvo efecto sobre la fertilidad. This study evaluated the effect of chemical body composition at first and second artificial inseminations (AI), determined by bioelectric impedance technique (BIA), on fertility and prolificacy of primiparous rabbit does. Data of 137 does from two farms using two different genetics (UPV and Hyplus) and three breeding systems were analyzed. Fertility was 56.2 % and the percentage of kits born alive over total born was 87.5 %. Breeding system had no effect on fertility or the percentage of kits born alive. Higher body protein, fat and energy of the rabbit doe at first artificial insemination (AI) increased the fertility in the second parity (P=0.007, P=0.03 and P<0.001 respectively). Fat and energy content of the doe at the second AI affected positively fertility in the second parity (P<0.001 and P<0.001 respectively), while protein influenced positively only prolificacy (P<0.001). The increase of the ratio protein/energy in both AI moments had a negative influence on fertility in the second parity (P<0.001), rabbit does with 12 g protein/MJ showed a higher fertility than those with higher values

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo definitivo de esta investigación es la de buscar un sistema, que siendo sencillo y ocupando poco espacio, pueda aplicarse a las aguas de salida de una depuradora o aguas normales circulando por corrientes fluviales, alcanzando calidad para distintos usos. Así se investiga sobre la posibilidad de utilizar el proceso de electrocoagulación sobre distintos parámetros considerados en la normativa sobre reutilización de las aguas ?Real Decreto 1620/2007, de 7 de diciembre, por el que se establece el régimen jurídico de la reutilización de las aguas depuradas (BOE n.º 294, 08/12/2007)?. En la investigación se ha diseñado una planta piloto, a escala real 140 l/h, en la que el agua a tratar pasa secuencialmente a través de un depósito de pretratamiento, un depósito de procesamiento electroquímico, y un depósito de post-tratamiento, que puede pasar a un decantador o a un depósito de flotación. La experimentación realizada concluye sobre los buenos resultados de la aplicación del sistema de electrocoagulación, en relación con el grado de cumplimiento respecto a las normativas actuales de reutilización. Los resultados garantizan las posibilidades del proceso en la eliminación de: la turbidez, sólidos suspendidos totales (SST), DQO y fosfatos en fósforo total, así como en la eliminación de microorganismos. Estos resultados justifican que la electrocoagulación puede constituirse en un sistema de tratamiento y depuración de las aguas, tanto en la lucha contra su eutrofización, eliminando fosfatos, como en su mejora de forma previa al empleo de membranas, como en la mejora de la calidad de las aguas de salida de las depuradoras o circulante por los ríos. Su sencillez, facilidad de montaje y bajo consumo energético lo avalan.