10 resultados para average values

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Interface discontinuity factors based on the Generalized Equivalence Theory are commonly used in nodal homogenized diffusion calculations so that diffusion average values approximate heterogeneous higher order solutions. In this paper, an additional form of interface correction factors is presented in the frame of the Analytic Coarse Mesh Finite Difference Method (ACMFD), based on a correction of the modal fluxes instead of the physical fluxes. In the ACMFD formulation, implemented in COBAYA3 code, the coupled multigroup diffusion equations inside a homogenized region are reduced to a set of uncoupled modal equations through diagonalization of the multigroup diffusion matrix. Then, physical fluxes are transformed into modal fluxes in the eigenspace of the diffusion matrix. It is possible to introduce interface flux discontinuity jumps as the difference of heterogeneous and homogeneous modal fluxes instead of introducing interface discontinuity factors as the ratio of heterogeneous and homogeneous physical fluxes. The formulation in the modal space has been implemented in COBAYA3 code and assessed by comparison with solutions using classical interface discontinuity factors in the physical space

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The 2010 Haiti earthquake, occurred on January 12th at 16:53:09 local time (21:53:09 UTC) with epicentral distance of 15 km from the capital Port au Prince, MW 7.0 and 13 km hypocenter deep, was the strongest event in the area since happened in 1770. The maximum macroseismic intensity was estimated as X (MMI scale). The aim of this research is to obtain a preliminary zonation of Port-au-Prince in terms of predominant resonance periods of ground. A total of 36 short-period ambient noise records have been carried out on a grid of about 500x500m. H/V spectral ratio method (HVSR) has been applied to determine the predominant period at each point. The lowest values (<0.2s) predominate in the southern part of the city, composed by Miocene conglomerates, while highest values (> 0.45s) correspond to the center and western parts, composed of Pleistocene-Holocene alluvial deposits and anthropogenic land reclaimed from the sea. We have determined the ground VS30 structure inside National Palace garden, using simultaneous ambient noise measurements. An array made up of 6 sensors were used, with 5 of them uniformly distributed along a circumference and a sixth one placed in its centre. The records were analyzed by using the spatial autocorrelation method (SPAC). The VS 30 value obtained was 331m/sec, in good agreement with the average values obtained for this area by other authors, using prospecting techniques.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The objective of this study was to build up a data set including productive performance and production factors data of growing-finishing (GF) pigs in Spain in order to perform a representative and reliable description of the traits of Spanish growing-finishing pig industry. Data from 764 batches from 452 farms belonging to nine companies (1,157,212 pigs) were collected between 2008 and 2010 through a survey including five parts: general, facilities, feeding, health status and performance. Most studied farms had only GF pigs on their facilities (94.7%), produced ‘industrial’ pigs (86.7%), had entire male and female (59.5%) and Pietrain-sired pigs (70.0%), housed between 13-20 pigs per pen (87.2%), had  50% of slatted floor (70%), single-space dry feeder (54.0%), nipple drinker (88.7%) and automatic ventilation systems (71.2%). A 75.0% of the farms used three feeding phases using mainly pelleted diets (91.0%), 61.3% performed three or more antibiotic treatments and 36.5% obtained water from the public supply. Continuous variables studied had the following average values: number of pigs placed per batch, 1,515 pigs; initial and final body weight, 19.0 and 108 kg; length of GF period, 136 days; culling rate, 1.4%; barn occupation, 99.7%; feed intake per pig and fattening cycle, 244 kg; daily gain, 0.657 kg; feed conversion ratio, 2.77 kg kg-1 and mortality rate, 4.3%. Data reflecting the practical situation of the Spanish growing and finishing pig production and it may contribute to develop new strategies in order to improve the productive and economic efficiency of GF pig units.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El autor ha trabajado como parte del equipo de investigación en mediciones de viento en el Centro Nacional de Energías Renovables (CENER), España, en cooperación con la Universidad Politécnica de Madrid y la Universidad Técnica de Dinamarca. El presente reporte recapitula el trabajo de investigación realizado durante los últimos 4.5 años en el estudio de las fuentes de error de los sistemas de medición remota de viento, basados en la tecnología lidar, enfocado al error causado por los efectos del terreno complejo. Este trabajo corresponde a una tarea del paquete de trabajo dedicado al estudio de sistemas remotos de medición de viento, perteneciente al proyecto de intestigación europeo del 7mo programa marco WAUDIT. Adicionalmente, los datos de viento reales han sido obtenidos durante las campañas de medición en terreno llano y terreno complejo, pertenecientes al también proyecto de intestigación europeo del 7mo programa marco SAFEWIND. El principal objetivo de este trabajo de investigación es determinar los efectos del terreno complejo en el error de medición de la velocidad del viento obtenida con los sistemas de medición remota lidar. Con este conocimiento, es posible proponer una metodología de corrección del error de las mediciones del lidar. Esta metodología está basada en la estimación de las variaciones del campo de viento no uniforme dentro del volumen de medición del lidar. Las variaciones promedio del campo de viento son predichas a partir de los resultados de las simulaciones computacionales de viento RANS, realizadas para el parque experimental de Alaiz. La metodología de corrección es verificada con los resultados de las simulaciones RANS y validadas con las mediciones reales adquiridas en la campaña de medición en terreno complejo. Al inicio de este reporte, el marco teórico describiendo el principio de medición de la tecnología lidar utilizada, es presentado con el fin de familiarizar al lector con los principales conceptos a utilizar a lo largo de este trabajo. Posteriormente, el estado del arte es presentado en donde se describe los avances realizados en el desarrollo de la la tecnología lidar aplicados al sector de la energía eólica. En la parte experimental de este trabajo de investigación se ha estudiado los datos adquiridos durante las dos campañas de medición realizadas. Estas campañas has sido realizadas en terreno llano y complejo, con el fin de complementar los conocimiento adquiridos en casa una de ellas y poder comparar los efectos del terreno en las mediciones de viento realizadas con sistemas remotos lidar. La primer campaña experimental se desarrollo en terreno llano, en el parque de ensayos de aerogeneradores H0vs0re, propiedad de DTU Wind Energy (anteriormente Ris0). La segunda campaña experimental se llevó a cabo en el parque de ensayos de aerogeneradores Alaiz, propiedad de CENER. Exactamente los mismos dos equipos lidar fueron utilizados en estas campañas, haciendo de estos experimentos altamente relevantes en el contexto de evaluación del recurso eólico. Un equipo lidar está basado en tecnología de onda continua, mientras que el otro está basado en tecnología de onda pulsada. La velocidad del viento fue medida, además de con los equipos lidar, con anemómetros de cazoletas, veletas y anemómetros verticales, instalados en mástiles meteorológicos. Los sensores del mástil meteorológico son considerados como las mediciones de referencia en el presente estudio. En primera instancia, se han analizado los promedios diez minútales de las medidas de viento. El objetivo es identificar las principales fuentes de error en las mediciones de los equipos lidar causadas por diferentes condiciones atmosféricas y por el flujo no uniforme de viento causado por el terreno complejo. El error del lidar ha sido estudiado como función de varias propiedades estadísticas del viento, como lo son el ángulo vertical de inclinación, la intensidad de turbulencia, la velocidad vertical, la estabilidad atmosférica y las características del terreno. El propósito es usar este conocimiento con el fin de definir criterios de filtrado de datos. Seguidamente, se propone una metodología para corregir el error del lidar causado por el campo de viento no uniforme, producido por la presencia de terreno complejo. Esta metodología está basada en el análisis matemático inicial sobre el proceso de cálculo de la velocidad de viento por los equipos lidar de onda continua. La metodología de corrección propuesta hace uso de las variaciones de viento calculadas a partir de las simulaciones RANS realizadas para el parque experimental de Alaiz. Una ventaja importante que presenta esta metodología es que las propiedades el campo de viento real, presentes en las mediciones instantáneas del lidar de onda continua, puede dar paso a análisis adicionales como parte del trabajo a futuro. Dentro del marco del proyecto, el trabajo diario se realizó en las instalaciones de CENER, con supervisión cercana de la UPM, incluyendo una estancia de 1.5 meses en la universidad. Durante esta estancia, se definió el análisis matemático de las mediciones de viento realizadas por el equipo lidar de onda continua. Adicionalmente, los efectos del campo de viento no uniforme sobre el error de medición del lidar fueron analíticamente definidos, después de asumir algunas simplificaciones. Adicionalmente, durante la etapa inicial de este proyecto se desarrollo una importante trabajo de cooperación con DTU Wind Energy. Gracias a esto, el autor realizó una estancia de 1.5 meses en Dinamarca. Durante esta estancia, el autor realizó una visita a la campaña de medición en terreno llano con el fin de aprender los aspectos básicos del diseño de campañas de medidas experimentales, el estudio del terreno y los alrededores y familiarizarse con la instrumentación del mástil meteorológico, el sistema de adquisición y almacenamiento de datos, así como de el estudio y reporte del análisis de mediciones. ABSTRACT The present report summarizes the research work performed during last 4.5 years of investigation on the sources of lidar bias due to complex terrain. This work corresponds to one task of the remote sensing work package, belonging to the FP7 WAUDIT project. Furthermore, the field data from the wind velocity measurement campaigns of the FP7 SafeWind project have been used in this report. The main objective of this research work is to determine the terrain effects on the lidar bias in the measured wind velocity. With this knowledge, it is possible to propose a lidar bias correction methodology. This methodology is based on an estimation of the wind field variations within the lidar scan volume. The wind field variations are calculated from RANS simulations performed from the Alaiz test site. The methodology is validated against real scale measurements recorded during an eight month measurement campaign at the Alaiz test site. Firstly, the mathematical framework of the lidar sensing principle is introduced and an overview of the state of the art is presented. The experimental part includes the study of two different, but complementary experiments. The first experiment was a measurement campaign performed in flat terrain, at DTU Wind Energy H0vs0re test site, while the second experiment was performed in complex terrain at CENER Alaiz test site. Exactly the same two lidar devices, based on continuous wave and pulsed wave systems, have been used in the two consecutive measurement campaigns, making this a relevant experiment in the context of wind resource assessment. The wind velocity was sensed by the lidars and standard cup anemometry and wind vanes (installed on a met mast). The met mast sensors are considered as the reference wind velocity measurements. The first analysis of the experimental data is dedicated to identify the main sources of lidar bias present in the 10 minute average values. The purpose is to identify the bias magnitude introduced by different atmospheric conditions and by the non-uniform wind flow resultant of the terrain irregularities. The lidar bias as function of several statistical properties of the wind flow like the tilt angle, turbulence intensity, vertical velocity, atmospheric stability and the terrain characteristics have been studied. The aim of this exercise is to use this knowledge in order to define useful lidar bias data filters. Then, a methodology to correct the lidar bias caused by non-uniform wind flow is proposed, based on the initial mathematical analysis of the lidar measurements. The proposed lidar bias correction methodology has been developed focusing on the the continuous wave lidar system. In a last step, the proposed lidar bias correction methodology is validated with the data of the complex terrain measurement campaign. The methodology makes use of the wind field variations obtained from the RANS analysis. The results are presented and discussed. The advantage of this methodology is that the wind field properties at the Alaiz test site can be studied with more detail, based on the instantaneous measurements of the CW lidar. Within the project framework, the daily basis work has been done at CENER, with close guidance and support from the UPM, including an exchange period of 1.5 months. During this exchange period, the mathematical analysis of the lidar sensing of the wind velocity was defined. Furthermore, the effects of non-uniform wind fields on the lidar bias were analytically defined, after making some assumptions for the sake of simplification. Moreover, there has been an important cooperation with DTU Wind Energy, where a secondment period of 1.5 months has been done as well. During the secondment period at DTU Wind Energy, an important introductory learning has taken place. The learned aspects include the design of an experimental measurement campaign in flat terrain, the site assessment study of obstacles and terrain conditions, the data acquisition and processing, as well as the study and reporting of the measurement analysis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabajo tiene por objeto la implementación del modelo ADM1 (The IWA Anaerobic Digestion Model No.1), para evaluar su capacidad de simular el proceso de digestión anaerobia de lodos de agua residual. Para implementar el modelo ADM1 se eligió el software Matlab y su herramienta Simulink, por su capacidad para simular sistemas dinámicos. Los resultados demostraron que la simulación a través de la implementación del modelo ADM1, es capaz de predecir la mayoría de los valores medios correspondientes a los parámetros de control más comunes del proceso de digestión anaerobia que se lleva a cabo en la Estación de depuración de aguas residuales (EDAR) sur de Madrid. Se deduce del estudio que la implementación del modelo ADM1 desarrollada mediante Matlab/Simulink, es capaz de simular el proceso dinámico de digestión anaerobia de cualquier EDAR, si se ajustan algunos de los parámetros del modelo para cada caso concreto. Abstract This work aims at the implementation of The IWA Anaerobic Digestion Model No.1 (ADM1) in order to assess its ability to simulate the anaerobic digestion process of wastewater sludge. A Matlab/Simulink implementation of the ADM1 was developed, the simulations results shows that the ADM1 is able to predict the average values of the most common control parameters of the anaerobic digestion process that takes place in the Waste water treatment plant (WWTP) south of Madrid. It is deduced of the estudy that the Matlab implementation of the ADM1 developed, is able to simulate the anaerobic digestion dynamic process of a WWTP, if some of the model parameters are fitted for each specific case.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El agua de riego en España se ha reducido del 80 % al 70% tras la rehabilitación de los sistemas tradicionales de riego y el incremento de riegos a presión. La política española ha favorecido la creación de nuevos regadíos con fines sociales, para asentar a la población rural en zonas con disponibilidad de recursos hídricos. Este contexto es aplicable a la Comunidad de Regantes “Rio Adaja” (CCRR), que comenzó a funcionar en 2010 por lo que se la ha elegido para evaluar el uso y productividad del agua y manejo del riego en CCRR modernizadas de la cuenca del Duero. El estudio del manejo del riego se realizó con evaluaciones de campo, el primer año de funcionamiento, en una muestra de sistemas de riego (pivotes centrales, ramales de avance frontal, cobertura total) representativa de los sistemas predominantes en la CCRR. Además, se analizó la carta de riego propuesta por el fabricante de los pivotes centrales, considerando una distribución de caudal continua a lo largo del ramal, y se propuso una nueva carta con emisores de riego que mejoraban la uniformidad de aplicación del agua. El uso del agua en la CCRR se evaluó considerando tanto los indicadores de eficiencia del riego: suministro relativo de riego (anual relative irrigation supply, ARIS), suministro relativo del agua (anual relativewater supply, ARWS), suministro relativo de precipitación (rainfall relative supply, RRS) como los de productividad: productividad del agua (water productivity, WP) productividad del agua de riego (irrigation water productivity, IWP) y productividad de la evapotranspiración (evapotranspiration water productivity, ETWP). Primero, se determinaron: las necesidades hídricas de los cultivos para mantener un contenido de humedad óptimo en su zona radical, el coeficiente dual del cultivo, el agua disponible total (ADP) y agua fácilmente aprovechable (AFA). Después, se estimaron las necesidades hídricas de los cultivos considerando tres años tipo: húmedo, normal y seco correspondientes a la probabilidad de disponibilidad de la precipitación del 20, 50 y 80%, respectivamente. Así mismo, se realizó una encuesta a los regantes de la CCRR para conocer la dosis de riego y rendimiento anual de los cultivos principales durante sus tres años de funcionamiento: 2010-2011, 2011-2012 y 2012-2013.Finalmente, se simuló el efecto del riego y su manejo en la producción de los cultivos y en la productividad del agua. Además, el modelo de simulación AQUACROP (Geerts et al., 2010) se ha utilizado para estudiar la mejora del uso del agua de los cultivos de la CCRR. Dado que este modelo requiere de calibración específica para cada cultivo y cada zona y dado que, de todos los cultivos de la CCRR, sólo el girasol cumplía el requisito, este cultivo fue elegido para estudiar si la estrategia de riego deficitario mejoraría el uso del agua. Los resultados obtenidos indican que el 90% de los sistemas de riego evaluados distribuye el agua con una uniformidad adecuada (CUC≥75%). La simulación de la distribución del agua con las cartas de riego propuestas por el fabricante en pivotes centrales resultó en coeficientes CUC< 75% y sus valores mejoraban al eliminar el aspersor distal. La uniformidad del riego mejoraría si se trabajase con la carta de riego propuesta y que se compone por emisores de riego seleccionados en este estudio. En la mayoría de los cultivos, se aplicó riegos deficitarios (ARIS < 1 en los dos primeros años de funcionamiento de la CCRR y riegos excedentarios (ARIS > 1) el tercer año siendo significativas las diferencias observadas. El manejo del riego fue bueno (0,9 ≤ ARWS ≤1,2) en la mayoría de los cultivos. Así mismo, los indicadores de productividad del agua (WP e IWP (€.m-3)) varió entre cultivos y años estudiados y, destacan los valores observados en: cebolla, patata, zanahoria y cebada. En general, la productividad del agua en los riegos deficitarios fue mayor observándose además, que los índices de productividad mayores correspondieron al año con precipitación mayor aunque, las diferencias entre sus valores medios no fueron significativas en las tres campañas de riego estudiadas. Los resultados apuntan a que la metodología del balance hídrico y las herramientas presentadas en este trabajo (uniformidad de distribución de agua, indicadores de eficiencia del uso de agua y de su productividad) son adecuadas para estudiar el manejo del agua en CCRR. En concreto, la uniformidad en la aplicación del agua de la CCRR mejoraría seleccionando emisores de riego que proporcionen una mayor uniformidad de distribución del agua, lo que conllevaría a cambiar el diámetro de la boquilla de los emisores y/o eliminar el aspersor distal. Así mismo, puede ser de interés adoptar estrategias de riego deficitario para incrementar la productividad en el uso del agua, y las rentas de los regantes, para lo cual se propone utilizar un patrón de cultivos de referencia. Finalmente, el riego deficitario puede ser una estrategia para mejorar la eficiencia y productividad en el uso del agua de la CCRR siempre que lleve asociado un manejo del riego adecuado que resulta, relativamente, más fácil cuando se dispone de sistemas de riego con una uniformidad de aplicación alta. Sin embargo su aplicación no sería aconsejable en los cultivos de remolacha azucarera, regado con sistemas de riego con un coeficiente de uniformidad de Christiansen CUC < 75%, y maíz, regado con sistemas de riego con un coeficiente de uniformidad de Christiansen CUC < 65%. ABSTRACT The irrigation scheme modernization and the increase of sprinkler irrigation area have reduced the irrigation water use from 80 to 70%. The national irrigation policy favored the creation of new irrigation schemes with the purpose to settle the rural population in areas with availability in water resources. Within this context, the irrigation district “Río Adaja” (CCRR) started in 2010 so, it has been chosen as a case study to evaluate the water use and the irrigation management in a modernized CCRR. Several field evaluations were carried out during the first operation year, in a sample of irrigation systems (center pivot, moving lateral and solid set) selected among all the systems in the CCRR. Likewise, the manufacturer irrigation chart for the center pivot systems has been considered and the pressure and discharge distribution along the pivot have been estimated, assuming a continuous flow along the pipe. Then; the sprinkler nozzles were selected order to increase the uniformity on water application. The water use in the CCRR has been assessed by considering the water use efficiency indicators: annual relative irrigation supply (ARIS), annual relative water supply (ARWS), relative rainfall supply (RRS) and also the productivity indicators: water productivity (WP), irrigation water productivity (IWP) and evapotranspiration water productivity (ETWP). On the one hand, it has been determined the crop water requirement (to maintain the optimal soil water content in the rooting zone), the dual crop coefficient, the total available water and the readily available water. The crop water requirement was estimated by considering the typical wet, normal and dry years which correspond to the probability of effective precipitation exceedance of 20, 50 and 80%, respectively. On the other hand, the irrigation depth and crop yield by irrigation campaign have been considered for the main crops in the area. This information was obtained from a farmer’s survey in 2010-2011, 2011-2012 and 2012-2013. For sunflower, the irrigation effect and its management on the crop yield and water productivity have been simulated. Also a deficit irrigation strategy, which improves the water resources, has been determined by means of AQUACROP (FAO). The results showed that 90% of the evaluated irrigation systems have adequate irrigation water application uniformity (CUC ≥ 75%). The CUC values in center pivots, which were calculated using the manufacturer irrigation chart, are below < 75% . However, these values would increase with the change of emitter nozzle to the proposed nozzles selection. The results on water use showed a deficit irrigation management (ARIS < 1), in most of crops during the first two operation years, and an excess in irrigation for the third year (ARIS > 1) although non-significant difference was observed. In most cases, the management of irrigation is adequate (0,9≤ ARWS≤ 1,2) although there are differences among crops. Likewise, the productivity indicators (WP and IWP (€.m-3)) varied among crops and with irrigation events. The highest values corresponded to onion, potato, carrot and barley. The values for deficit irrigation were the highest and the productivity indicators increased the year with the highest effective precipitation. Nevertheless, the differences between the average values of these indicators by irrigation campaign were non-significant. This study highlights that the soil water balance methodology and other tools used in the methodology are adequate to study the use and productivity of water in the irrigation district. In fact, the water use in this CCRR can be improved if the irrigation systems were designed with higher water distribution uniformity what would require the change of sprinkler nozzles and/or eliminate the end gun. Likewise, it is advisable to set up deficit irrigation strategies to increase the water productivity taking into account certain limits on water application uniformities. In this respect, a reference cropping pattern has been proposed and the limits for water uniformity have been calculated for several crops.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This work presents the first application of total-reflection X-ray fluorescence (TXRF) spectrometry, a new and powerful alternative analytical method, to evaluation of the bioaccumulation kinetics of gold nanorods (GNRs) in various tissues upon intravenous administration in mice. The analytical parameters for developed methodology by TXRF were evaluated by means of the parallel analysis of bovine liver certified reference material samples (BCR-185R) doped with 10 μg/g gold. The average values (n = 5) achieved for gold measurements in lyophilized tissue weight were as follows: recovery 99.7%, expanded uncertainty (k = 2) 7%, repeatability 1.7%, detection limit 112 ng/g, and quantification limit 370 ng/g. The GNR bioaccumulation kinetics was analyzed in several vital mammalian organs such as liver, spleen, brain, and lung at different times. Additionally, urine samples were analyzed to study the kinetics of elimination of the GNRs by this excretion route. The main achievement was clearly differentiating two kinds of behaviors. GNRs were quickly bioaccumulated by highly vascular filtration organs such as liver and spleen, while GNRs do not show a bioaccumulation rates in brain and lung for the period of time investigated. In parallel, urine also shows a lack of GNR accumulation. TXRF has proven to be a powerful, versatile, and precise analytical technique for the evaluation of GNRs content in biological systems and, in a more general way, for any kind of metallic nanoparticles.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En el estado de Veracruz, al sur de México, se ubican empresas dedicadas a la obtención de etanol a partir de melaza de azúcar de caña. Las más pequeñas, tienen una producción promedio de 20,000 L de alcohol/día. Los efluentes de la producción de etanol incluyen agua de enfriamiento de condensadores, agua del lavado de tanques de fermentación y vinazas, estas últimas son los efluentes más contaminantes en las destilerías, por su concentración de material orgánico biodegradable y no biodegradable. Las vinazas se generan en grandes volúmenes, produciéndose de 12 a 15 litros de vinazas por cada litro de alcohol destilado. Estos efluentes se caracterizan por tener altas temperaturas, pH ácido y una elevada concentración de DQO así como de sólidos totales. La determinación de la biodegradabilidad anaerobia de un agua residual, permite estimar la fracción de DQO que puede ser transformada potencialmente en metano y la DQO recalcitrante que queda en el efluente. Para el desarrollo de una prueba de biodegradabilidad, es importante considerar diversos factores relacionados con la composición del agua a tratar, composición de los lodos y las condiciones bajo las cuales se lleva a cabo la prueba. La digestión anaerobia de aguas residuales industriales es comúnmente usada en todo el mundo, ofrece significativas ventajas para el tratamiento de efluentes altamente cargados. Los sistemas anaerobios de tratamiento de aguas residuales industriales incluyen tecnologías con biopelículas, estos sistemas de tratamiento anaerobio con biopelícula son una tecnología bien establecida para el tratamiento de efluentes industriales. El Reactor de Lecho Fluidizado Inverso Anaerobio (LFI) ha sido diseñado para el tratamiento de aguas residuales de alta carga, teniendo como ventajas el empleo de un soporte que proporciona una gran superficie y un bajo requerimiento de energía para la fluidización del lecho. En el presente trabajo, se lleva a cabo el análisis de un proceso de producción de etanol, identificando a los efluentes que se generan en el mismo. Se encuentra que el efluente final está compuesto principalmente por las vinazas provenientes del proceso de destilación. En la caracterización de las vinazas provenientes del proceso de producción de etanol a partir de melaza de azúcar de caña, se encontraron valores promedio de DQO de 193.35 gDQO/L, para los sólidos totales 109.78 gST/L y pH de 4.64. Así mismo, en esta investigación se llevó a cabo una prueba de biodegradabilidad anaerobia, aplicada a la vinaza proveniente de la producción de etanol. En la caracterización de los lodos empleados en el ensayo se obtiene una Actividad Metanogénica Especifica de 0.14 g DQO/gSSV.d. El porcentaje de remoción de DQO de la vinaza fue de 62.7%, obteniéndose una k igual a 0.031 h-1 y una taza de consumo de sustrato de 1.26 gDQO/d. El rendimiento de metano fue de 0.19 LCH4/g DQOremovida y el porcentaje de biodegradabilidad de 54.1%. El presente trabajo también evalúa el desempeño de un LFI, empleando Extendospher® como soporte y tratando efluentes provenientes de la producción de etanol. El reactor se arrancó en batch y posteriormente se operó en continuo a diferentes Cargas Orgánicas Volumétricas de 0.5, 1.0, 3.3, 6.8 y 10.4 g DQO/L.d. Además, se evaluaron diferentes Tiempos de Residencia Hidráulica de 10, 5 y 1 días. El sistema alcanzó las siguientes eficiencias promedio de remoción de DQO: 81% para la operación en batch; 58, 67, 59 y 50 % para las cargas de 0.5, 1.0, 3.3, 6.8 g DQO/L.d respectivamente. Para la carga de 10.4 g DQO/L.d, la eficiencia promedio de remoción de DQO fue 38%, en esta condición el reactor presentó inestabilidad y disminución del rendimiento de metano. La generación de metano inició hasta los 110 días de operación del reactor a una carga de 1.0 g DQO/L.d. El sistema alcanzó un rendimiento de metano desde 0.15 hasta 0.34 LCH4/g DQO. Durante la operación del reactor a una carga constante de 6.4 g DQO/L.d, y un TRH de 1 día, se alcanzó una eficiencia promedio de remoción de DQO de 52%. In the state of Veracruz, to the south of Mexico, there are located companies dedicated to the production of ethanol from molasses of cane sugar. The smallest, have a average production of 20,000 L ethanol/day. The effluent of production of ethanol include water of condensers, water originated from the cleanliness of tanks of fermentation and vinasses, the above mentioned are more effluent pollutants in the distilleries, for the poor organic matter degradability. The vinasses are generated in high volumes, producing from 12 to 15 L of vinasses per every liter of distilled ethanol. These effluent are characterized by its high temperature, pH acid and a high concentration of DQO as well as high concentration of TS. The determination of the anaerobic degradability of a waste water, it allows to estimate the fraction of DQO that can be transformed potentially into methane and the recalcitrant DQO that stays in the effluent. For the development of degradability test, it is important to consider factors related to the composition of the water to be treated, composition of the sludge and the conditions under which the test is carried out. The anaerobic digestion of industrial wastes water is used commonly in the whole world, it offers significant advantages for the treatment of effluent highly loaded. The anaerobic treatment of industrial wastes water include technologies with biofilms, this anaerobic treatment whit biofilms systems, is a well-established technology for treatment of industrial effluents. The Anaerobic Inverse Fluidized Bed Reactor (IFBR) has been developed to provide biological treatment of high strength organic wastewater for their large specific surface and their low energy requirements for fluidization. In this work, there is carried out the analysis of a process of production of ethanol, identifying the effluent ones that are generated in the process. One determined that the effluent end is composed principally by the vinasses originated from the process of distillation. In the characterization of the vinasses originated from the process of production of ethanol from cane sugar molasses, there were average values of DQO of 193.35 gDQO/L, average values of solid of 109.78 gST/L and pH of 4.64. In this investigation there was carried out a anaerobic degradability test of the vinasses generated in the production of ethanol. In the characterization of the sludge used in the essay, the specific methanogenic activity (SMA) was 0.14 gDQO/gSSV.d. The average removal of DQO of the vinasses was 62.7 %, k equal to 0.031 h-1 was obtained one and a rate of removal substrate of 1.26 gDQO/d. The methane yield was 0.19 LCH4/gDQO removed and the anaerobic biodegradability was a 54.1 %. This study describes the performance of IFBR with Extendospher®, for the treatment of vinasses. The start-up was made in batch, increasing gradually the Organic Load Rate (OLR): 0.5, 1.0, 3.3, 6.8 and 10.4 g COD/L.d. Different Hydraulic Retention Times (HRT) were evaluated: 10, 5 and 1 days. During the operation in batch, the COD removal obtained was of 81 %, and for OLR of 0.5, 1.0, 3.3, 6.8 g COD/L.d the removal obtained was 58, 67, 59 and 50 % respectively. For a maximum OLR of 10.4 g COD/L.d, the COD removal was 38 %, and the system presented instability and decrease of the yield methane. The methane production initiated after 110 days of the start-up of the IFBR, to organic load rate of 1.0 g COD/L.d. The system reached values in the methane yield from 0.15 up to 0.34 LCH4/g CODremoved, for the different organic load rates. During the operation to a constant OLR of 6.4 g COD/L.d, and a HRT of 1 day, the Anaerobic Inverse Fluidized Bed Reactor reached a maximum efficiency of removal of 52 %.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Como punto de partida para el desarrollo de la Tesis, se mantiene la hipótesis de que es posible establecer métodos de evaluación global sobre el grado de utilidad de los sistemas constructivos correspondientes a los cerramientos de la edificación. Tales métodos habrían de posibilitar, de entre una serie finita de sistemas alternativos, cuáles de ellos son los objetivamente más adecuados para su selección en un entorno de decisión concreto, y habrían de permitir fundamentar la justificación objetiva de tal decisión. Paralelamente a esta hipótesis de carácter general, se planteó desde el inicio la necesidad de comprobación de una hipótesis de partida particular según la cual los sistemas constructivos basados en la utilización de componentes prefabricados, o procesos de puesta en obra con un alto grado de industrialización arrojarían valores de utilidad mayores que los sistemas tradicionales basados en la albañilería. Para la verificación de estas dos hipótesis de partida se ha procedido inicialmente a la selección de un conjunto coherente de doce sistemas de cerramientos de la edificación que pudiese servir como testigo de su diversidad potencial, para proceder a su valoración comparativa. El método de valoración propuesto ha entrado a considerar una serie de factores de diversa índole que no son reducibles a un único parámetro o magnitud que permitiese una valoración de tipo lineal sobre su idoneidad relativa, ni que permitiese establecer un grado de prelación entre los distintos sistemas constructivos alternativos de manera absoluta. Para resolver este tour de force o desafío metodológico se ha acudido a la aplicación de metodologías de valoración que nos permitiesen establecer de forma racional dicha comparativa. Nos referimos a una serie de metodologías provenientes en primera instancia de las ciencias exactas, que reciben la denominación de métodos de ayuda a la decisión multicriterio, y en concreto el denominado método ELECTRE. Inicialmente, se ha planteado la aplicación del método de análisis sobre doce sistemas constructivos seleccionados de tal forma que representasen de forma adecuada las tres categorías establecidas para caracterizar la totalidad de sistemas constructivos posibles; por peso, grado de prefabricación y grado de ventilación. Si bien la combinación de las tres categorías básicas anteriormente señaladas produce un total de 18 subcategorías conceptuales, tomamos finalmente doce subcategorías dado que consideramos que es un número operativo suficiente por extenso para el análisis propuesto y elimina tipos no relevantes. Aplicado el método propuesto, a estos doce sistemas constructivos “testigo”, se constata el mayor grado de utilidad de los sistemas prefabricados, pesados y no ventilados. Al hilo del análisis realizado en la Parte II de la Tesis sobre los doce sistemas constructivos “testigo”, se ha realizado un volcado de los sistemas constructivos incluidos en el Catalogo de Elementos Constructivos del CTE (versión 2010) sobre las dieciocho subcategorías definidas en dicha Parte II para caracterizar los sistemas constructivos “testigo”. Posteriormente, se ha procedido a una parametrización de la totalidad de sistemas constructivos para cerramientos de fachadas incluidos en este Catálogo. La parametrización sistemática realizada ha permitido establecer, mediante el cálculo del valor medio que adoptan los parámetros de los sistemas pertenecientes a una misma familia de las establecidas por el Catálogo, una caracterización comparativa del grado de utilidad de dichas familias, tanto en lo relativo a cada uno de los parámetros como en una valoración global de sus valores, de carácter indicativo. Una vez realizada una parametrización completa de la totalidad de sistemas constructivos incluidos en el Catálogo, se ha realizado una simulación de aplicación de la metodología de validación desarrollada en la Parte II de la presente Tesis, con el objeto de comprobar su adecuación al caso. En conclusión, el desarrollo de una herramienta de apoyo a la decisión multicriterio aplicada al Catálogo de Elementos constructivos del CTE se ha demostrado técnicamente viable y arroja resultados significativos. Se han diseñado dos sistemas constructivos mediante la aplicación de la herramienta desarrollada, uno de fachada no ventilada y otro de fachada ventilada. Comparados estos dos sistemas constructivos mejorados con otros sistemas constructivos analizados Se comprueba el alto grado de utilidad objetiva de los dos sistemas diseñados en relación con el resto. La realización de este ejercicio de diseño de un sistema constructivo específico, que responde a los requerimientos de un decisor concreto viene a demostrar, así pues, la utilidad del algoritmo propuesto en su aplicación a los procesos de diseño de los sistemas constructivos. La tesis incorpora dos innovaciones metodológicas y tres innovaciones instrumentales. ABSTRACT The starting point for the thesis is the hypothesis that it is possible to devise suitability degree evaluation methods of building enclosure systems. Such methods should allow optimizing appraisal, given a specific domain of decision, among a finite number of alternative systems, and provide objective justification of such decision. Along with the above mentioned general assumption, a second hypothesis whereby constructive systems based on the use of prefabricated components, or high industrialization degree work processes, would throw efficiency values higher than traditional masonry systems needed to be tested. In order to validate these two hypothesis a coherent set of twelve enclosure systems that could serve as a reference sample of their potential diversity was selected and a comparative evaluation was carried out. The valuation method proposed has considered several different factors that are neither reducible to a single parameter or magnitude that would allow a linear evaluation of their relative suitability nor allow to establishing an absolute priority ranking between different alternative constructive systems. In order to resolve this tour de force or methodological challenge, valuation methodologies that enable use establishing rational assessments were used. We are referring to a number of methodologies taken from the exact sciences field, usually known as aid methods for multi-criteria decision, in particular the so-called ELECTRE method. Even though the combination of the mentioned three basic categories result in eighteen conceptual sub categories, we are finally considering just twelve since we deem it adequately extended for the our intended purpose and eliminates non relevant instances. The method of analysis was initially applied to the set of twelve selected constructive systems is a way that they could represent adequately the three previously established categories set out to characterize all possible enclosure systems, namely weight, prefabrication degree and ventilation degree. Once the proposed method is applied to the sample systems, the higher efficiency of the prefabricated, heavy and not ventilated systems was confirmed. In line with the analysis in Part II of the thesis on the twelve chosen enclosure systems, it has done an uploading data of construction systems listed in the Catalogue of constructive elements of the CTE (version 2010) according the eighteen subcategories used in this part II to characterize the construction systems taken as sample. Subsequently, a parameterization of all enclosure facade systems included in this catalog has been undertaken. The systematic parameterization has allowed to set, by means of calculating the average values of the parameters of the systems belonging to the same family of those established by the Catalog, a comparative characterization of the efficiency degree of these families, both in relation to each parameter as to an overall evaluation of its values, in a indicative way. After the parameterization of all enclosure systems included in the Catalog, a simulation of validation methodology application developed in Part II of this Thesis has been made, in order to assess its consistency to the referred case. In conclusion, the development of a multi-criteria decision aid tool, applied to the CTE Catalog of constructive elements, has proved to be technically feasible and yields significant results. Two building systems through the application of the developed tool, a non-ventilated façade and a ventilated façade have been designed. Comparing these two improved construction systems with other building systems analyzed, we were able to assess the high degree of objective efficiency of the two systems designed in relation to the rest. The exercise of designing a specific enclosure system that meets the requirements of a particular decision-maker hence shows the suitability of the proposed algorithm applied to the process of enclosure systems design. This Thesis includes two methodological innovations and three instrumental innovations.