66 resultados para Estimations


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los pasos inferiores son muy numerosos en las líneas de ferrocarril. Su comportamiento dinámico ha recibido mucha menos atención que el de otras estructuras como los puentes, pero su elevado número hace que su estudio sea económicamente relevante con vista a optimizar su forma, manteniendo la seguridad. El proyecto de puentes según el Eurocódigo incluye comprobaciones de estados límite de tensiones bajo carga dinámica. En el caso de pasos inferiores, las comprobaciones pueden resultar tan costosas como aquellas de puentes, pese a que su coste es mucho menor. Por tanto, se impone la búsqueda de unas reglas de cálculo simplificado que pongan en consonancia el coste de la estructura con el esfuerzo necesario para su proyecto. Este artículo propone un conjunto de reglas basadas en un estudio paramétrico = Underpasses are common in modern railway lines. Wildlife corridors and drainage conduits often fall into this category of partially buried structures. Their dynamic behavior has received far less attention than that of other structures such as bridges, but their large number makes their study an interesting challenge from the viewpoint of safety and cost savings. The bridge design rules in accordance with the Eurocode involve checks on stresses according to dynamic loading. In the case of underpasses, those checks may be as much as those for bridges. Therefore, simplified design rules may align the design effort with their cost. Such a set of rules may provide estimations of response parameters based on the key parameters influencing the result. This paper contains a proposal based on a parametric study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neurological Diseases (ND) are affecting larger segments of aging population every year. Treatment is dependent on expensive accurate and frequent monitoring. It is well known that ND leave correlates in speech and phonation. The present work shows a method to detect alterations in vocal fold tension during phonation. These may appear either as hypertension or as cyclical tremor. Estimations of tremor may be produced by auto-regressive modeling of the vocal fold tension series in sustained phonation. The correlates obtained are a set of cyclicality coefficients, the frequency and the root mean square amplitude of the tremor. Statistical distributions of these correlates obtained from a set of male and female subjects are presented. Results from five study cases of female voice are also given.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las imágenes hiperespectrales permiten extraer información con una gran resolución espectral, que se suele extender desde el espectro ultravioleta hasta el infrarrojo. Aunque esta tecnología fue aplicada inicialmente a la observación de la superficie terrestre, esta característica ha hecho que, en los últimos años, la aplicación de estas imágenes se haya expandido a otros campos, como la medicina y, en concreto, la detección del cáncer. Sin embargo, este nuevo ámbito de aplicación ha generado nuevas necesidades, como la del procesado de las imágenes en tiempo real. Debido, precisamente, a la gran resolución espectral, estas imágenes requieren una elevada capacidad computacional para ser procesadas, lo que imposibilita la consecución de este objetivo con las técnicas tradicionales de procesado. En este sentido, una de las principales líneas de investigación persigue el objetivo del tiempo real mediante la paralelización del procesamiento, dividiendo esta carga computacional en varios núcleos que trabajen simultáneamente. A este respecto, en el presente documento se describe el desarrollo de una librería de procesado hiperespectral para el lenguaje RVC - CAL, que está específicamente pensado para el desarrollo de aplicaciones multimedia y proporciona las herramientas necesarias para paralelizar las aplicaciones. En concreto, en este Proyecto Fin de Grado se han desarrollado las funciones necesarias para implementar dos de las cuatro fases de la cadena de análisis de una imagen hiperespectral - en concreto, las fases de estimación del número de endmembers y de la estimación de la distribución de los mismos en la imagen -; conviene destacar que este trabajo se complementa con el realizado por Daniel Madroñal en su Proyecto Fin de Grado, donde desarrolla las funciones necesarias para completar las otras dos fases de la cadena. El presente documento sigue la estructura clásica de un trabajo de investigación, exponiendo, en primer lugar, las motivaciones que han cimentado este Proyecto Fin de Grado y los objetivos que se esperan alcanzar con él. A continuación, se realiza un amplio análisis del estado del arte de las tecnologías necesarias para su desarrollo, explicando, por un lado, las imágenes hiperespectrales y, por otro, todos los recursos hardware y software necesarios para la implementación de la librería. De esta forma, se proporcionarán todos los conceptos técnicos necesarios para el correcto seguimiento de este documento. Tras ello, se detallará la metodología seguida para la generación de la mencionada librería, así como el proceso de implementación de una cadena completa de procesado de imágenes hiperespectrales que permita la evaluación tanto de la bondad de la librería como del tiempo necesario para analizar una imagen hiperespectral completa. Una vez expuesta la metodología utilizada, se analizarán en detalle los resultados obtenidos en las pruebas realizadas; en primer lugar, se explicarán los resultados individuales extraídos del análisis de las dos etapas implementadas y, posteriormente, se discutirán los arrojados por el análisis de la ejecución de la cadena completa, tanto en uno como en varios núcleos. Por último, como resultado de este estudio se extraen una serie de conclusiones, que engloban aspectos como bondad de resultados, tiempos de ejecución y consumo de recursos; asimismo, se proponen una serie de líneas futuras de actuación con las que se podría continuar y complementar la investigación desarrollada en este documento. ABSTRACT. Hyperspectral imaging collects information from across the electromagnetic spectrum, covering a wide range of wavelengths. Although this technology was initially developed for remote sensing and earth observation, its multiple advantages - such as high spectral resolution - led to its application in other fields, as cancer detection. However, this new field has shown specific requirements; for example, it needs to accomplish strong time specifications, since all the potential applications - like surgical guidance or in vivo tumor detection - imply real-time requisites. Achieving this time requirements is a great challenge, as hyperspectral images generate extremely high volumes of data to process. For that reason, some new research lines are studying new processing techniques, and the most relevant ones are related to system parallelization: in order to reduce the computational load, this solution executes image analysis in several processors simultaneously; in that way, this computational load is divided among the different cores, and real-time specifications can be accomplished. This document describes the construction of a new hyperspectral processing library for RVC - CAL language, which is specifically designed for multimedia applications and allows multithreading compilation and system parallelization. This Diploma Project develops the required library functions to implement two of the four stages of the hyperspectral imaging processing chain - endmember and abundance estimations -. The two other stages - dimensionality reduction and endmember extraction - are studied in the Diploma Project of Daniel Madroñal, which complements the research work described in this document. The document follows the classical structure of a research work. Firstly, it introduces the motivations that have inspired this Diploma Project and the main objectives to achieve. After that, it thoroughly studies the state of the art of the technologies related to the development of the library. The state of the art contains all the concepts needed to understand the contents of this research work, like the definition and applications of hyperspectral imaging and the typical processing chain. Thirdly, it explains the methodology of the library implementation, as well as the construction of a complete processing chain in RVC - CAL applying the mentioned library. This chain will test both the correct behavior of the library and the time requirements for the complete analysis of one hyperspectral image, either executing the chain in one processor or in several ones. Afterwards, the collected results will be carefully analyzed: first of all, individual results -from endmember and abundance estimations stages - will be discussed and, after that, complete results will be studied; this results will be obtained from the complete processing chain, so they will analyze the effects of multithreading and system parallelization on the mentioned processing chain. Finally, as a result of this discussion, some conclusions will be gathered regarding some relevant aspects, such as algorithm behavior, execution times and processing performance. Likewise, this document will conclude with the proposal of some future research lines that could continue the research work described in this document.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe una creciente necesidad de hacer el mejor uso del agua para regadío. Una alternativa eficiente consiste en la monitorización del contenido volumétrico de agua (θ), utilizando sensores de humedad. A pesar de existir una gran diversidad de sensores y tecnologías disponibles, actualmente ninguna de ellas permite obtener medidas distribuidas en perfiles verticales de un metro y en escalas laterales de 0.1-1,000 m. En este sentido, es necesario buscar tecnologías alternativas que sirvan de puente entre las medidas puntuales y las escalas intermedias. Esta tesis doctoral se basa en el uso de Fibra Óptica (FO) con sistema de medida de temperatura distribuida (DTS), una tecnología alternativa de reciente creación que ha levantado gran expectación en las últimas dos décadas. Específicamente utilizamos el método de fibra calentada, en inglés Actively Heated Fiber Optic (AHFO), en la cual los cables de Fibra Óptica se utilizan como sondas de calor mediante la aplicación de corriente eléctrica a través de la camisa de acero inoxidable, o de un conductor eléctrico simétricamente posicionado, envuelto, alrededor del haz de fibra óptica. El uso de fibra calentada se basa en la utilización de la teoría de los pulsos de calor, en inglés Heated Pulsed Theory (HPP), por la cual el conductor se aproxima a una fuente de calor lineal e infinitesimal que introduce calor en el suelo. Mediante el análisis del tiempo de ocurrencia y magnitud de la respuesta térmica ante un pulso de calor, es posible estimar algunas propiedades específicas del suelo, tales como el contenido de humedad, calor específico (C) y conductividad térmica. Estos parámetros pueden ser estimados utilizando un sensor de temperatura adyacente a la sonda de calor [método simple, en inglés single heated pulsed probes (SHPP)], ó a una distancia radial r [método doble, en inglés dual heated pulsed probes (DHPP)]. Esta tesis doctoral pretende probar la idoneidad de los sistemas de fibra óptica calentada para la aplicación de la teoría clásica de sondas calentadas. Para ello, se desarrollarán dos sistemas FO-DTS. El primero se sitúa en un campo agrícola de La Nava de Arévalo (Ávila, España), en el cual se aplica la teoría SHPP para estimar θ. El segundo sistema se desarrolla en laboratorio y emplea la teoría DHPP para medir tanto θ como C. La teoría SHPP puede ser implementada con fibra óptica calentada para obtener medidas distribuidas de θ, mediante la utilización de sistemas FO-DTS y el uso de curvas de calibración específicas para cada suelo. Sin embargo, la mayoría de aplicaciones AHFO se han desarrollado exclusivamente en laboratorio utilizando medios porosos homogéneos. En esta tesis se utiliza el programa Hydrus 2D/3D para definir tales curvas de calibración. El modelo propuesto es validado en un segmento de cable enterrado en una instalación de fibra óptica y es capaz de predecir la respuesta térmica del suelo en puntos concretos de la instalación una vez que las propiedades físicas y térmicas de éste son definidas. La exactitud de la metodología para predecir θ frente a medidas puntuales tomadas con sensores de humedad comerciales fue de 0.001 a 0.022 m3 m-3 La implementación de la teoría DHPP con AHFO para medir C y θ suponen una oportunidad sin precedentes para aplicaciones medioambientales. En esta tesis se emplean diferentes combinaciones de cables y fuentes emisoras de calor, que se colocan en paralelo y utilizan un rango variado de espaciamientos, todo ello en el laboratorio. La amplitud de la señal y el tiempo de llegada se han observado como funciones del calor específico del suelo. Medidas de C, utilizando esta metodología y ante un rango variado de contenidos de humedad, sugirieron la idoneidad del método, aunque también se observaron importantes errores en contenidos bajos de humedad de hasta un 22%. La mejora del método requerirá otros modelos más precisos que tengan en cuenta el diámetro del cable, así como la posible influencia térmica del mismo. ABSTRACT There is an increasing need to make the most efficient use of water for irrigation. A good approach to make irrigation as efficient as possible is to monitor soil water content (θ) using soil moisture sensors. Although, there is a broad range of different sensors and technologies, currently, none of them can practically and accurately provide vertical and lateral moisture profiles spanning 0-1 m depth and 0.1-1,000 m lateral scales. In this regard, further research to fulfill the intermediate scale and to bridge single-point measurement with the broaden scales is still needed. This dissertation is based on the use of Fiber Optics with Distributed Temperature Sensing (FO-DTS), a novel approach which has been receiving growing interest in the last two decades. Specifically, we employ the so called Actively Heated Fiber Optic (AHFO) method, in which FO cables are employed as heat probe conductors by applying electricity to the stainless steel armoring jacket or an added conductor symmetrically positioned (wrapped) about the FO cable. AHFO is based on the classic Heated Pulsed Theory (HPP) which usually employs a heat probe conductor that approximates to an infinite line heat source which injects heat into the soil. Observation of the timing and magnitude of the thermal response to the energy input provide enough information to derive certain specific soil thermal characteristics such as the soil heat capacity, soil thermal conductivity or soil water content. These parameters can be estimated by capturing the soil thermal response (using a thermal sensor) adjacent to the heat source (the heating and the thermal sources are mounted together in the so called single heated pulsed probe (SHPP)), or separated at a certain distance, r (dual heated pulsed method (DHPP) This dissertation aims to test the feasibility of heated fiber optics to implement the HPP theory. Specifically, we focus on measuring soil water content (θ) and soil heat capacity (C) by employing two types of FO-DTS systems. The first one is located in an agricultural field in La Nava de Arévalo (Ávila, Spain) and employ the SHPP theory to estimate θ. The second one is developed in the laboratory using the procedures described in the DHPP theory, and focuses on estimating both C and θ. The SHPP theory can be implemented with actively heated fiber optics (AHFO) to obtain distributed measurements of soil water content (θ) by using reported soil thermal responses in Distributed Temperature Sensing (DTS) and with a soil-specific calibration relationship. However, most reported AHFO applications have been calibrated under laboratory homogeneous soil conditions, while inexpensive efficient calibration procedures useful in heterogeneous soils are lacking. In this PhD thesis, we employ the Hydrus 2D/3D code to define these soil-specific calibration curves. The model is then validated at a selected FO transect of the DTS installation. The model was able to predict the soil thermal response at specific locations of the fiber optic cable once the surrounding soil hydraulic and thermal properties were known. Results using electromagnetic moisture sensors at the same specific locations demonstrate the feasibility of the model to detect θ within an accuracy of 0.001 to 0.022 m3 m-3. Implementation of the Dual Heated Pulsed Probe (DPHP) theory for measurement of volumetric heat capacity (C) and water content (θ) with Distributed Temperature Sensing (DTS) heated fiber optic (FO) systems presents an unprecedented opportunity for environmental monitoring. We test the method using different combinations of FO cables and heat sources at a range of spacings in a laboratory setting. The amplitude and phase-shift in the heat signal with distance was found to be a function of the soil volumetric heat capacity (referred, here, to as Cs). Estimations of Cs at a range of θ suggest feasibility via responsiveness to the changes in θ (we observed a linear relationship in all FO combinations), though observed bias with decreasing soil water contents (up to 22%) was also reported. Optimization will require further models to account for the finite radius and thermal influence of the FO cables, employed here as “needle probes”. Also, consideration of the range of soil conditions and cable spacing and jacket configurations, suggested here to be valuable subjects of further study and development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de la presente investigación es el desarrollo de un modelo de cálculo rápido, eficiente y preciso, para la estimación de los costes finales de construcción, en las fases preliminares del proyecto arquitectónico. Se trata de una herramienta a utilizar durante el proceso de elaboración de estudios previos, anteproyecto y proyecto básico, no siendo por tanto preciso para calcular el “predimensionado de costes” disponer de la total definición grafica y literal del proyecto. Se parte de la hipótesis de que en la aplicación práctica del modelo no se producirán desviaciones superiores al 10 % sobre el coste final de la obra proyectada. Para ello se formulan en el modelo de predimensionado cinco niveles de estimación de costes, de menor a mayor definición conceptual y gráfica del proyecto arquitectónico. Los cinco niveles de cálculo son: dos que toman como referencia los valores “exógenos” de venta de las viviendas (promoción inicial y promoción básica) y tres basados en cálculos de costes “endógenos” de la obra proyectada (estudios previos, anteproyecto y proyecto básico). El primer nivel de estimación de carácter “exógeno” (nivel .1), se calcula en base a la valoración de mercado de la promoción inmobiliaria y a su porcentaje de repercusión de suelo sobre el valor de venta de las viviendas. El quinto nivel de valoración, también de carácter “exógeno” (nivel .5), se calcula a partir del contraste entre el valor externo básico de mercado, los costes de construcción y los gastos de promoción estimados de la obra proyectada. Este contraste entre la “repercusión del coste de construcción” y el valor de mercado, supone una innovación respecto a los modelos de predimensionado de costes existentes, como proceso metodológico de verificación y validación extrínseca, de la precisión y validez de las estimaciones resultantes de la aplicación práctica del modelo, que se denomina Pcr.5n (Predimensionado costes de referencia con .5niveles de cálculo según fase de definición proyectual / ideación arquitectónica). Los otros tres niveles de predimensionado de costes de construcción “endógenos”, se estiman mediante cálculos analíticos internos por unidades de obra y cálculos sintéticos por sistemas constructivos y espacios funcionales, lo que se lleva a cabo en las etapas iniciales del proyecto correspondientes a estudios previos (nivel .2), anteproyecto (nivel .3) y proyecto básico (nivel .4). Estos cálculos teóricos internos son finalmente evaluados y validados mediante la aplicación práctica del modelo en obras de edificación residencial, de las que se conocen sus costes reales de liquidación final de obra. Según va evolucionando y se incrementa el nivel de definición y desarrollo del proyecto, desde los estudios previos hasta el proyecto básico, el cálculo se va perfeccionando en su nivel de eficiencia y precisión de la estimación, según la metodología aplicada: [aproximaciones sucesivas en intervalos finitos], siendo la hipótesis básica como anteriormente se ha avanzado, lograr una desviación máxima de una décima parte en el cálculo estimativo del predimensionado del coste real de obra. El cálculo del coste de ejecución material de la obra, se desarrolla en base a parámetros cúbicos funcionales “tridimensionales” del espacio proyectado y parámetros métricos constructivos “bidimensionales” de la envolvente exterior de cubierta/fachada y de la huella del edificio sobre el terreno. Los costes funcionales y constructivos se ponderan en cada fase del proceso de cálculo con sus parámetros “temáticos/específicos” de gestión (Pg), proyecto (Pp) y ejecución (Pe) de la concreta obra presupuestada, para finalmente estimar el coste de construcción por contrata, como resultado de incrementar al coste de ejecución material el porcentaje correspondiente al parámetro temático/especifico de la obra proyectada. El modelo de predimensionado de costes de construcción Pcr.5n, será una herramienta de gran interés y utilidad en el ámbito profesional, para la estimación del coste correspondiente al Proyecto Básico previsto en el marco técnico y legal de aplicación. Según el Anejo I del Código Técnico de la Edificación (CTE), es de obligado cumplimiento que el proyecto básico contenga una “Valoración aproximada de la ejecución material de la obra proyectada por capítulos”, es decir , que el Proyecto Básico ha de contener al menos un “presupuesto aproximado”, por capítulos, oficios ó tecnologías. El referido cálculo aproximado del presupuesto en el Proyecto Básico, necesariamente se ha de realizar mediante la técnica del predimensionado de costes, dado que en esta fase del proyecto arquitectónico aún no se dispone de cálculos de estructura, planos de acondicionamiento e instalaciones, ni de la resolución constructiva de la envolvente, por cuanto no se han desarrollado las especificaciones propias del posterior proyecto de ejecución. Esta estimación aproximada del coste de la obra, es sencilla de calcular mediante la aplicación práctica del modelo desarrollado, y ello tanto para estudiantes como para profesionales del sector de la construcción. Como se contiene y justifica en el presente trabajo, la aplicación práctica del modelo para el cálculo de costes en las fases preliminares del proyecto, es rápida y certera, siendo de sencilla aplicación tanto en vivienda unifamiliar (aisladas y pareadas), como en viviendas colectivas (bloques y manzanas). También, el modelo es de aplicación en el ámbito de la valoración inmobiliaria, tasaciones, análisis de viabilidad económica de promociones inmobiliarias, estimación de costes de obras terminadas y en general, cuando no se dispone del proyecto de ejecución y sea preciso calcular los costes de construcción de las obras proyectadas. Además, el modelo puede ser de aplicación para el chequeo de presupuestos calculados por el método analítico tradicional (estado de mediciones pormenorizadas por sus precios unitarios y costes descompuestos), tanto en obras de iniciativa privada como en obras promovidas por las Administraciones Públicas. Por último, como líneas abiertas a futuras investigaciones, el modelo de “predimensionado costes de referencia 5 niveles de cálculo”, se podría adaptar y aplicar para otros usos y tipologías diferentes a la residencial, como edificios de equipamientos y dotaciones públicas, valoración de edificios históricos, obras de urbanización interior y exterior de parcela, proyectos de parques y jardines, etc….. Estas lineas de investigación suponen trabajos paralelos al aquí desarrollado, y que a modo de avance parcial se recogen en las comunicaciones presentadas en los Congresos internacionales Scieconf/Junio 2013, Rics‐Cobra/Septiembre 2013 y en el IV Congreso nacional de patología en la edificación‐Ucam/Abril 2014. ABSTRACT The aim of this research is to develop a fast, efficient and accurate calculation model to estimate the final costs of construction, during the preliminary stages of the architectural project. It is a tool to be used during the preliminary study process, drafting and basic project. It is not therefore necessary to have the exact, graphic definition of the project in order to be able to calculate the cost‐scaling. It is assumed that no deviation 10% higher than the final cost of the projected work will occur during the implementation. To that purpose five levels of cost estimation are formulated in the scaling model, from a lower to a higher conceptual and graphic definition of the architectural project. The five calculation levels are: two that take as point of reference the ”exogenous” values of house sales (initial development and basic development), and three based on calculation of endogenous costs (preliminary study, drafting and basic project). The first ”exogenous” estimation level (level.1) is calculated over the market valuation of real estate development and the proportion the cost of land has over the value of the houses. The fifth level of valuation, also an ”exogenous” one (level.5) is calculated from the contrast between the basic external market value, the construction costs, and the estimated development costs of the projected work. This contrast between the ”repercussions of construction costs” and the market value is an innovation regarding the existing cost‐scaling models, as a methodological process of extrinsic verification and validation, of the accuracy and validity of the estimations obtained from the implementation of the model, which is called Pcr.5n (reference cost‐scaling with .5calculation levels according to the stage of project definition/ architectural conceptualization) The other three levels of “endogenous” construction cost‐scaling are estimated from internal analytical calculations by project units and synthetic calculations by construction systems and functional spaces. This is performed during the initial stages of the project corresponding to preliminary study process (level.2), drafting (level.3) and basic project (level.4). These theoretical internal calculations are finally evaluated and validated via implementation of the model in residential buildings, whose real costs on final payment of the works are known. As the level of definition and development of the project evolves, from preliminary study to basic project, the calculation improves in its level of efficiency and estimation accuracy, following the applied methodology: [successive approximations at finite intervals]. The basic hypothesis as above has been made, achieving a maximum deviation of one tenth, in the estimated calculation of the true cost of predimensioning work. The cost calculation for material execution of the works is developed from functional “three‐dimensional” cubic parameters for the planned space and constructive “two dimensional” metric parameters for the surface that envelopes around the facade and the building’s footprint on the plot. The functional and building costs are analyzed at every stage of the process of calculation with “thematic/specific” parameters of management (Pg), project (Pp) and execution (Pe) of the estimated work in question, and finally the cost of contractual construction is estimated, as a consequence of increasing the cost of material execution with the percentage pertaining to the thematic/specific parameter of the projected work. The construction cost‐scaling Pcr.5n model will be a useful tool of great interest in the professional field to estimate the cost of the Basic Project as prescribed in the technical and legal framework of application. According to the appendix of the Technical Building Code (CTE), it is compulsory that the basic project contains an “approximate valuation of the material execution of the work, projected by chapters”, that is, that the basic project must contain at least an “approximate estimate” by chapter, trade or technology. This approximate estimate in the Basic Project is to be performed through the cost‐scaling technique, given that structural calculations, reconditioning plans and definitive contruction details of the envelope are still not available at this stage of the architectural project, insofar as specifications pertaining to the later project have not yet been developed. This approximate estimate of the cost of the works is easy to calculate through the implementation of the given model, both for students and professionals of the building sector. As explained and justified in this work, the implementation of the model for cost‐scaling during the preliminary stage is fast and accurate, as well as easy to apply both in single‐family houses (detached and semi‐detached) and collective housing (blocks). The model can also be applied in the field of the real‐estate valuation, official appraisal, analysis of the economic viability of real estate developments, estimate of the cost of finished projects and, generally, when an implementation project is not available and it is necessary to calculate the building costs of the projected works. The model can also be applied to check estimates calculated by the traditional analytical method (state of measurements broken down into price per unit cost details), both in private works and those promoted by Public Authorities. Finally, as potential lines for future research, the “five levels of calculation cost‐scaling model”, could be adapted and applied to purposes and typologies other than the residential one, such as service buildings and public facilities, valuation of historical buildings, interior and exterior development works, park and garden planning, etc… These lines of investigation are parallel to this one and, by way of a preview, can be found in the dissertations given in the International Congresses Scieconf/June 2013, Rics‐Cobra/September 2013 and in the IV Congress on building pathology ‐Ucam/April 2014.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper explores the urban rehabilitation projects promoted by the Spanish Government between 1992 and 2012 through housing plans. The analysis is based on the comparison of programmes and estimations gathered in these plans with actual housing production within this period in order to find the connection between sectoral housing planning and real estate cycles in these last twenty years. During the period under review, six state housing plans, that were mainly focused on the promotion of newly-constructed state-subsidised housing, were developed, including the Areas of Integrated Rehabilitation programmes (ARI programmes). In spite of the relevance and growing complexity of these programmes, these played a subsidiary role in the government housing policy and were insignificant regarding the whole real estate production in this period.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo presenta un estudio de campo sobre confort térmico basado en la concepción adaptativa, para la determinación de las temperaturas y rangos de confort térmico de sujetos habituados a espacios enfriados mecánicamente en viviendas con aire acondicionado (AA) en el clima cálido y húmedo de la ciudad de Maracaibo (Venezuela) y las consecuentes implicaciones energéticas que tiene la satisfacción de esa demanda de confortabilidad en el sector residencial de la ciudad. Para la estimación de la temperatura de confort (Tc) y el rango de temperaturas de confort se aplican diferentes metodologías de análisis estadístico, las cuales son comparadas con las respectivas calculadas con el índice PMV; se analizan también otros aspectos asociados a la confortabilidad térmica, tales como las respuestas en las diferentes escalas de valoración de la confortabilidad, las preferencias, experiencias y expectativas térmicas de los sujetos. Las implicaciones energéticas se determinan en base al consumo de la energía eléctrica residencial debido exclusivamente a la variación de la Tc, entre la obtenida inicialmente en espacios naturalmente ventilados (NV) en Maracaibo (Bravo y Gonzalez 2001a) y la determinada ahora en espacios con AA. Para ello, se utiliza una metodología que es el resultado de la modificación parcial de la propuesta por Yamtraipat et al (2006). Entre los resultados y conclusiones derivadas de este estudio se encuentra que el 57 % de las personas prefieren las mismas condiciones confortables experimentadas en los ambientes con AA y solamente un 30 % prefieren experimentar ambientes ligeramente fríos y ligeramente calientes. Mientras tanto, las estimaciones de la Tc, y el respectivo rango, varían de acuerdo a la metodología empleada. Con la convencional metodología adaptativa, la Tc se estima en 25 °C en un amplio rango de 6 °C, entre 22 °C y 28 °C; mientras que con la metodología denominada “método de los promedios de los intervalos de las sensaciones térmicas” (Gómez-Azpeitia et al, 2007), la misma Tc se estima en 24 °C, en un rango estrecho de 22,5 °C a 25,5 °C y en un rango ampliado de 21 °C a 27 °C (amplitud 6 °C), donde se encuentran las tres cuartas partes de las personas del estudio. Ambas Tc son muy próximas a la temperatura operativa optima de 24,5 °C (rango de 23 °C a 26 °C) establecida por las normas internacionales ISO 7730:1994 y ASHRAE 55:1992 para el verano en climas templados. Sin embargo, la Tc estimada con los valores de PMV resulta ser superior en 1 °C y 2 °C a la Tc estimada con la metodología adaptativa (25 °C) y con el metodo de los promedios de los intervalos (24 °C), respectivamente. Con la metodología aplicada y la muestra del estudio se estima que de haberse registrado una Tbsint igual o próxima a 28 C (equivalente a la Tc en espacios NV en Maracaibo) en todos los espacios medidos (con Tbsint entre 19 C y 29 C), el ahorro total de la energía anual seria de 1.648,1 GWh en un ano respecto al consumo de AA en el año 2007 (2.522,3 GWh en un ano), mientras que el ahorro de energía asumiendo Tbsint de 24 C y de 25 C, resultan en 651,9 GWh en un ano y 425,7 GWh en un ano, respectivamente. Esto significa respectivos consumos adiciones de energía eléctrica equivalentes al 60,4 % y 74,2 %. Finalmente, los hábitos o conductas adoptadas por las personas de este estudio, sumado a las predominantes manifestaciones de confortabilidad en ambientes enfriados mecánicamente, redundan en mayores adaptaciones a condiciones de frio y exigencias de temperaturas de confort más bajas, con su consecuente consumo energético para proveerlas. ABSTRACT This investigation presents a study on thermal comfort following the adaptive approach for the determination of the thermal comfort temperatures and ranges of subjects accustomed to mechanically refrigerated spaces in dwellings with air conditioning (AA) systems in the hot and humid weather of the city of Maracaibo (Venezuela) and the ensuing energy use implications it has on the satisfaction of such demand of comfortability in the residential sector of the city. For the estimation of the comfort temperature (Tc) and the range of comfort temperatures different statistical analysis methodologies were used, which are then compared to the respective values calculated with the PMV index, also discusses other aspects related with thermal comfortability were analyzed, such as the responses on the different scales of perception of thermal comfortability, preferences, experiences and expectations of the analyzed subjects. The energetic implications are determined through the residential energy consumption related exclusively with the variation of the Tc between the originally calculated for naturally ventilated (NV) spaces in Maracaibo (Bravo y Gonzalez 2001a) and the one calculated on the present study with AA. For this, a new methodology was developed by partially modifying the Yamtraipat et al (2006) proposal. Among the results and conclusions of this study are that 57 % of the studied subjects prefer the same comfortable conditions experienced on AA environments and only a 30 % prefer to experience slightly cooler or warmer environments. Also, estimations of the Tc and its respective range vary according to the used methodology. With the conventional adaptive methodology, the Tc is estimated in 25 °C with a wide range of 6 °C, between 22 °C and 28 °C, while using the “thermal sensation intervals averages method” (Gomez-Azpeitia et al, 2007) the Tc is estimated in 24 °C on a narrow range between 22.5 °C and 25.5 °C and a widened range of 21 °C to 27 °C (6 °C in amplitude), a range where . of the studied subjects are located. Both Tc are very close to the optimum operation temperature of 24.5 °C (with a range between 23 °C and 26 °C) established on the ISO 7730:1994 and ASHRAE 55:1992 international norms for the summer on warm climates. However, the estimated Tc with the PMV indexes results to be 1 °C and 2 °C above the Tc estimated with the adaptive methodology (25 °C) and the thermal sensation intervals averages method (24 °C), respectively. With the applied methodology and this study sample, its estimated that if a Tbsint equal or close to 28 °C (equivalent to the Tc in NV spaces in Maracaibo) was registered in all measured spaces (with Tbsint between 19 °C and 29 °C) the total yearly energy savings would be of 1.648,1 GWh in a year with respect to the AA consumption in the year 2007 (2.522.3 GWh in a year), while the energy savings assuming a Tbinst of 24 °C and 25 °C result in 651.9 GWh and 425.7 Gwh in a year, respectively. This means that the respective additional electrical energy consumption amount to 60.4 % and 74.2 %, respectively. Finally, the habits or behaviors adopted by the subjects analyzed on this study, added to the predominant manifestations of comfortability in mechanically refrigerated environments result in greater adaptations to colder conditions and lower thermal comfort temperature demands, with the consequential increase in power consumption to meet them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de estructuras mediante modelos de elementos finitos representa una de las metodologías más utilizadas y aceptadas en la industria moderna. Para el análisis de estructuras tubulares de grandes dimensiones similares a las sobrestructuras de autobuses y autocares, los elementos de tipo viga son comúnmente utilizados y recomendados debido a que permiten obtener resultados satisfactorios con recursos computacionales reducidos. No obstante, los elementos de tipo viga presentan importante desventaja ya que las uniones modeladas presentan un comportamiento infinitamente rígido, esto determina un comportamiento mas rígido en las estructuras modeladas lo que se traduce en fuentes de error para las simulaciones estructurales (hasta un 60%). Mediante el modelado de uniones tubulares utilizando elementos de tipo área o volumen, se pueden obtener modelos más realistas, ya que las características topológicas de la unión propiamente dicha pueden ser reproducidas con un mayor nivel de detalle. Evitándose de esta manera los inconvenientes de los elementos de tipo viga. A pesar de esto, la modelización de estructuras tubulares de grandes dimensiones con elementos de tipo área o volumen representa una alternativa poco atractiva debido a la complejidad del proceso de modelados y al gran número de elementos resultantes lo que implica la necesidad de grandes recursos computacionales. El principal objetivo del trabajo de investigación presentado, fue el de obtener un nuevo tipo de elemento capaz de proporcionar estimaciones más exactas en el comportamiento de las uniones modeladas, al mismo tiempo manteniendo la simplicidad del procesos de modelado propio de los elementos de tipo viga regular. Con el fin de alcanzar los objetivos planteados, fueron realizadas diferentes metodologías e investigaciones. En base a las investigaciones realizadas, se obtuvo un modelo de unión viga alternativa en el cual se introdujeron un total seis elementos elásticos al nivel de la unión mediante los cuales es posible adaptar el comportamiento local de la misma. Adicionalmente, para la estimación de las rigideces correspondientes a los elementos elásticos se desarrollaron dos metodologías, una primera basada en la caracterización del comportamiento estático de uniones simples y una segunda basada en la caracterización del comportamiento dinámico a través de análisis modales. Las mejoras obtenidas mediante la implementación del modelo de unión alternativa fueron analizadas mediante simulaciones y validación experimental en una estructura tubular compleja representativa de sobrestructuras de autobuses y autocares. En base a los análisis comparativos realizados con la uniones simples modeladas y los experimentos de validación, se determinó que las uniones modeladas con elementos de tipo viga son entre un 5-60% más rígidas que uniones equivalentes modeladas con elementos área o volumen. También se determinó que las uniones área y volumen modeladas son entre un 5 a un 10% mas rígidas en comparación a uniones reales fabricadas. En los análisis realizados en la estructura tubular compleja, se obtuvieron mejoras importantes mediante la implementación del modelo de unión alternativa, las estimaciones del modelo viga se mejoraron desde un 49% hasta aproximadamente un 14%. ABSTRACT The analysis of structures with finite elements models represents one of the most utilized an accepted technique in the modern industry. For the analysis of large tubular structures similar to buses and coaches upper structures, beam type elements are utilized and recommended due to the fact that these elements provide satisfactory results at relatively reduced computational performances. However, the beam type elements have a main disadvantage determined by the fact that the modeled joints have an infinite rigid behavior, this shortcoming determines a stiffer behavior of the modeled structures which translates into error sources for the structural simulations (up to 60%). By modeling tubular junctions with shell and volume elements, more realistic models can be obtained, because the topological characteristics of the junction at the joint level can be reproduced more accurately. This way, the shortcoming that the beam type elements present can be solved. Despite this fact, modeling large tubular structures with shell or volume type elements represents an unattractive alternative due to the complexity of the modeling process and the large number of elements that result which imply the necessity of vast computational performances. The main objective of the research presented in this thesis was to develop a new beam type element that would be able to provide more accurate estimations for the local behavior of the modeled junctions at the same time maintaining the simplicity of the modeling process the regular beam type elements have. In order to reach the established objectives of the research activities, a series of different methodologies and investigations have been necessary. From these investigations an alternative beam T-junction model was obtained, in which a total of six elastic elements at the joint level were introduced, the elastic elements allowed us to adapt the local behavior of the modeled junctions. Additionally, for the estimation of the stiffness values corresponding to the elastic elements two methodologies were developed, one based on the T-junction’s static behavior and a second one based on the T-junction’s dynamic behavior by means of modal analysis. The improvements achieved throughout the implementation of this alternative T-junction model were analyzed though mechanical validation in a complex tubular structures that had a representative configuration for buses and coaches upper structures. From the comparative analyses of the finite element modeled T-junctions and mechanical experimental analysis, was determined that the beam type modeled T-junctions have a stiffer behavior compared to equivalent shell and volume modeled T-junctions with average differences ranging from 5-60% based on the profile configurations. It was also determined that the shell and volume models have a stiffer behavior compared to real T-junctions varying from 5 to 10% depending on the profile configurations. Based on the analysis of the complex tubular structure, significant improvements were obtained by the implementation of the alternative beam T-junction model, the model estimations were improved from a 49% to approximately 14%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dada la importancia de conocer la humedad del suelo de forma precisa y en tiempo real, se ha realizado este trabajo de investigación cuyo objetivo principal ha sido seleccionar un Balance Hídrico del Suelo (BHS) diario y validar sus estimaciones de humedad del suelo frente a medidas obtenidas “in situ”, aplicándolo a tres emplazamientos seleccionados en la zona centro con características edáficas y climáticas diferentes, y de este modo estimar con cierta precisión la humedad del suelo como Agua Disponible (AD) para las plantas y a su vez permitir la realización de estudios climáticos. Los observatorios meteorológicos seleccionados fueron: Guadalajara/El Serranillo en la zona aluvial del río Henares; Colmenar Viejo/Base Famet en la rampa sur del Guadarrama sobre rocas metamórficas; y Radiosondeo/Madrid(Barajas) en arenas arcósicas de grano grueso. Se realizó una caracterización morfológica y un estudio de las propiedades físicas, químicas e hidrofísicas de los suelos en cada emplazamiento. El suelo de Guadalajara, Xerorthent Típico presenta una secuencia genética de horizontes (Ap-AC-C1-C2) siendo su clase textural entre franco-arenosa a franca, con menos del 2% de elementos gruesos, presencia de caliza a lo largo de todo el perfil, destacando la homogeneidad en vertical y horizontal de sus propiedades. El suelo de Colmenar, Xerorthent Dystrico, presenta una secuencia genética de horizontes (A-C-C/R) apareciendo el horizonte C/R entre 20-30 cm; y la roca aproximadamente a unos 30 cm; destacando en este perfil su acidez y el alto contenido de elementos gruesos. El suelo de Radiosondeo, Haploxeralf Típico, presenta la secuencia normal de horizontes de los alfisoles (A-Bt1-Bt2-C/Bt); destacando su heterogeneidad principalmente en el plano horizontal, con presencia del Bt a diferentes profundidades en un corto espacio longitudinal. En una primera fase de experimentación (2007-2008) se seleccionaron BHS diarios que sólo utilizaban como datos de entrada la información de variables meteorológicas y el valor del Agua Disponible Total (ADT) para cada tipo de suelo y profundidad. Se probaron BHS diarios con agotamiento exponencial y directo de la reserva, utilizando la evapotranspiración de referencia de Penman-Monteith recomendada por FAO. Al mismo tiempo que se disponía de los datos estimados de humedad de suelo mediante diferentes BHS diarios en los tres emplazamientos, también se realizó una monitorización de la humedad del suelo “in situ” mediante el método gravimétrico, con adaptación de dicha metodología a la problemática de cada suelo, para determinar en cada fecha tanto la humedad del suelo como su contenido de AD para una profundidad de 0 a 30 cm. Se tomaron en cada fecha de muestreo 5 muestras para la profundidad 0- 10 cm, otras cinco para 10-20 cm y otras cinco para 20-30 cm, realizándose el correspondiente tratamiento estadístico de los datos. El ADT se calculó a partir de los datos de capacidad de campo y punto de marchitez obtenidos en laboratorio con membrana de Richards. Los resultados de esta primera fase permitieron conocer que el BHS exponencial diario era el que mejor estimaba el AD en Guadalajara considerando la capacidad de campo a una presión de 33 kPa, mientras que en Colmenar se debían considerar para un mejor ajuste, 10 kPa en lugar de 33 kPa. En el observatorio de Radiosondeo debido a que en cada fecha de muestreo la profundidad en la que aparecía el horizonte Bt era diferente, no se pudo demostrar si el BHS exponencial diario tenía un buen comportamiento. En una segunda fase de experimentación (2009-2012) y con el objeto de aminorar los problemas encontrados en Radiosondeo para la medida de humedad del suelo por el método gravimétrico, se procedió a la instalación y utilización de diferentes sensores de medida de humedad de suelo en el mismo observatorio: TDR (time domain reflectometry - TRIME T3 de IMKO); FDR capacitivo (frecuency domain reflectometry - ECH2O EC-20 de DECAGON) y otros. Esta segunda fase de experimentación tuvo una duración de 4 años y se compararon las medidas de humedad de suelo obtenidas a partir de los sensores con las estimadas del BHS exponencial hasta una profundidad de 0 a 85 cm. En laboratorio se realizaron calibraciones específicas de los sensores TDR y FDR para cada uno de los horizontes más diferenciados del Haploxeralf Típico, utilizando diferentes tipos de regresión. Los valores de humedad de suelo con el equipo TDR, corregidos mediante la calibración específica de laboratorio, fueron los que más se ajustaron a las medidas realizadas por método gravimétrico “in situ”, por lo que se utilizó el TDR para las comparaciones con los valores obtenidos del BHS exponencial diario durante los cuatro años de esta segunda fase experimental. Se realizaron diferentes estimaciones del ADT, partiendo de datos de laboratorio y/o de datos procedentes de humedad de los sensores en campo. Los resultados mostraron de nuevo la conveniencia de utilizar el BHS exponencial diario, pero en este caso, con la estimación del ADT realizada a partir de las gráficas de los sensores. Mediante la utilización de los datos de humedad del BHS exponencial diario se han realizado comparaciones con el mismo tipo de balance pero utilizando un periodo semanal o mensual en lugar de diario, para conocer las diferencias. Los valores obtenidos con periodicidad mensual han dado valores de AD inferiores a los balances calculados semanalmente o diariamente. Por último se ha comprobado que los resultados de un BHS exponencial diario pueden complementar la información que se obtiene del Índice de Precipitación Estandarizado (SPI) y pueden mejorar el estudio de la sequía agrícola. ABSTRACT Due to the importance of a better knowledge of soil water at real time and in a more precisely way, this research work has being carried out with the main objective of selecting a daily Soil Water Balance (SWB) to estimate soil water content, and validate it in comparison to “in situ” measurements. Three locations, differing in soil and climate characteristics, were selected in central Spain in order to estimate with certain acuity soil water as plant-Available Water (AW) and to serve as a tool for the climatic studies. The selected places near meteorology stations were: Guadalajara/El Serranillo an alluvium of the Henares watershed; Colmenar Viejo/Base Famet, in the south raised area of the Guadarrama river basin, over metamorphic rocks; and Radiosondeo/Madrid (Barajas) in coarse arkosic sandstone. Morphology characterization, physical, chemical and hydrologic soil properties were studied in each area. In Guadalajara the soil is a Typic Xerorthent with a (Ap-AC-C1- C2) genetic horizon sequence, loam-sandy to loam textural class, less than 2% of rock fragments, presence of equivalent CaCO3 through the whole profile, outstanding the vertical and horizontal homogeneity of the properties. In Colmenar the soil is represented by a Dystric Xerorthent with a (A-C-C/R) genetic horizon sequence, the C/R is 20-30 cm deep where rock outcrops are approximately at 30 cm; a characteristic feature of this profile is its high acidity and high rock fragments content. In Radiosondeo the soil is represented by a Typic Haploxeralf, with the usual alfisol genetic horizon sequence (A-Bt1-Bt2-C/Bt); outstanding its horizontal heterogeneity, “the variability of the Bt (clay enriched horizon) depth in short distances”. In a first experimental stage (2007-2008), the daily SWB chosen was that which only uses as input data the information from the meteorology variables and plant-Total Available Water (TAW) for each soil type and depth. Different daily SWB (with exponential or direct plant-Available Water depletion) were applied, using the Penman- Monteith reference evapotranspiration (ETo) recommended by FAO. At the same time as soil water content was estimated from the different daily SWB at the three locations, also soil water content was being monitored by “in situ” gravimetric methodology, adapting it to each soil characteristic, to determine every time soil water content and AW to a depth of 0 to 30 cm. In each sampling date, 5 samples for each depth were taken: 0-10 cm; 10-20 cm and 20-30 cm and the data were submitted to the corresponding statistical analysis. The TAW was calculated based on field capacity (FC) and permanent wilting point (PWP) data obtained from laboratory by the Richards pressure plate. Results from this first experimental stage show that the daily exponential SWB was the one which better estimated the AW in Guadalajara considering field capacity at -33 kPa, though in Colmenar, field capacity at -10 kPa must be considered instead of -33 kPa for a better estimation. In Radiosondeo due to the fact that the Bt horizon depth varied in different sampling dates, it could not be established if the daily exponential SWB had a good performance. In a second experimental stage (20019-2012) and with the objective of minimizing the problems encountered in Radiosondeo for measuring “in situ” soil water content by the gravimetric method, the installation of different sensors for measuring soil water content were established and used in the same field location: TDR (time domain reflectometry - TRIME T3 from IMKO), capacitance FDR (frecuency domain reflectometry - ECH2O EC-20 from DECAGON) and others. This second experimental stage lasted 4 years in order to compare the soil water measures from the sensors with the estimations by the exponential SWB form 0 to 85 cm soil depths. At laboratory, specific calibrations for TDR and FDR sensors of the Typic Haploxeralf more differentiated horizons were done using different types of regressions. The results showed that soil water data obtained by the TDR equipment, corrected by the specific laboratory calibration, best fitted to “in situ” gravimetric soil water measures. In this way TDR was used for comparing to the daily exponential SWB during the four years of this second experimentation stage. Various estimations for obtaining TAW were tested; based on laboratory data – and/or on the data obtained of the soil water content field sensors. Results confirmed again, the convenience of using the daily exponential SWB, though in this case, with the TAW obtained from the field sensors graphics. Soil water estimated by exponential SWB on daily basis was compared to weekly and monthly periods, in order to know their reliability. The results obtained for a monthly period gave less AW than the ones obtained in a weekly or daily period. Finally it has been proved that the results obtained from the exponential SWB in a daily bases can be used as a useful tool in order to give complementary information to the SPI (Precipitation Standardized Index) and to help in agricultural drought studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Four European fuel cycle scenarios involving transmutation options (in coherence with PATEROS and CPESFR EU projects) have been addressed from a point of view of resources utilization and economic estimates. Scenarios include: (i) the current fleet using Light Water Reactor (LWR) technology and open fuel cycle, (ii) full replacement of the initial fleet with Fast Reactors (FR) burning U?Pu MOX fuel, (iii) closed fuel cycle with Minor Actinide (MA) transmutation in a fraction of the FR fleet, and (iv) closed fuel cycle with MA transmutation in dedicated Accelerator Driven Systems (ADS). All scenarios consider an intermediate period of GEN-III+ LWR deployment and they extend for 200 years, looking for long term equilibrium mass flow achievement. The simulations were made using the TR_EVOL code, capable to assess the management of the nuclear mass streams in the scenario as well as economics for the estimation of the levelized cost of electricity (LCOE) and other costs. Results reveal that all scenarios are feasible according to nuclear resources demand (natural and depleted U, and Pu). Additionally, we have found as expected that the FR scenario reduces considerably the Pu inventory in repositories compared to the reference scenario. The elimination of the LWR MA legacy requires a maximum of 55% fraction (i.e., a peak value of 44 FR units) of the FR fleet dedicated to transmutation (MA in MOX fuel, homogeneous transmutation) or an average of 28 units of ADS plants (i.e., a peak value of 51 ADS units). Regarding the economic analysis, the main usefulness of the provided economic results is for relative comparison of scenarios and breakdown of LCOE contributors rather than provision of absolute values, as technological readiness levels are low for most of the advanced fuel cycle stages. The obtained estimations show an increase of LCOE ? averaged over the whole period ? with respect to the reference open cycle scenario of 20% for Pu management scenario and around 35% for both transmutation scenarios. The main contribution to LCOE is the capital costs of new facilities, quantified between 60% and 69% depending on the scenario. An uncertainty analysis is provided around assumed low and high values of processes and technologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rápida adopción de dispositivos electrónicos en el automóvil, ha contribuido a mejorar en gran medida la seguridad y el confort. Desde principios del siglo 20, la investigación en sistemas de seguridad activa ha originado el desarrollo de tecnologías como ABS (Antilock Brake System), TCS (Traction Control System) y ESP (Electronic Stability Program). El coste de despliegue de estos sistemas es crítico: históricamente, sólo han sido ampliamente adoptados cuando el precio de los sensores y la electrónica necesarios para su construcción ha caído hasta un valor marginal. Hoy en día, los vehículos a motor incluyen un amplio rango de sensores para implementar las funciones de seguridad. La incorporación de sistemas que detecten la presencia de agua, hielo o nieve en la vía es un factor adicional que podría ayudar a evitar situaciones de riesgo. Existen algunas implementaciones prácticas capaces de detectar carreteras mojadas, heladas y nevadas, aunque con limitaciones importantes. En esta tesis doctoral, se propone una aproximación novedosa al problema, basada en el análisis del ruido de rodadura generado durante la conducción. El ruido de rodadura es capturado y preprocesado. Después es analizado utilizando un clasificador basado en máquinas de vectores soporte (SVM), con el fin de generar una estimación del estado del firme. Todas estas operaciones se realizan en el propio vehículo. El sistema propuesto se ha desarrollado y evaluado utilizando Matlabr, mostrando tasas de aciertos de más del 90%. Se ha realizado una implementación en tiempo real, utilizando un prototipo basado en DSP. Después se han introducido varias optimizaciones para permitir que el sistema sea realizable usando un microcontrolador de propósito general. Finalmente se ha realizado una implementación hardware basada en un microcontrolador, integrándola estrechamente con las ECU del vehículo, pudiendo obtener datos capturados por los sensores del mismo y enviar las estimaciones del estado del firme. El sistema resultante ha sido patentado, y destaca por su elevada tasa de aciertos con un tamaño, consumo y coste reducidos. ABSTRACT Proliferation of automotive electronics, has greatly improved driving safety and comfort. Since the beginning of the 20th century, investigation in active safety systems has resulted in the development of technologies such as ABS (Antilock Brake System), TCS (Traction Control System) and ESP (Electronic Stability Program). Deployment cost of these systems is critical: historically, they have been widely adopted only when the price of the sensors and electronics needed to build them has been cut to a marginal value. Nowadays, motor vehicles include a wide range of sensors to implement the safety functions. Incorporation of systems capable of detecting water, ice or snow on the road is an additional factor that could help avoiding risky situations. There are some implementations capable of detecting wet, icy and snowy roads, although with important limitations. In this PhD Thesis, a novel approach is proposed, based on the analysis of the tyre/road noise radiated during driving. Tyre/road noise is captured and pre-processed. Then it is analysed using a Support Vector Machine (SVM) based classifier, to output an estimation of the road status. All these operations are performed on-board. Proposed system is developed and evaluated using Matlabr, showing success rates greater than 90%. A real time implementation is carried out using a DSP based prototype. Several optimizations are introduced enabling the system to work using a low-cost general purpose microcontroller. Finally a microcontroller based hardware implementation is developed. This implementation is tightly integrated with the vehicle ECUs, allowing it to obtain data captured by its sensors, and to send the road status estimations. Resulting system has been patented, and is notable because of its high hit rate, small size, low power consumption and low cost.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Water is fundamental to human life and the availability of freshwater is often a constraint on human welfare and economic development. Consequently, the potential effects of global changes on hydrology and water resources are considered among the most severe and vital ones. Water scarcity is one of the main problems in the rural communities of Central America, as a result of an important degradation of catchment areas and the over-exploitation of aquifers. The present Thesis is focused on two critical aspects of global changes over water resources: (1) the potential effects of climate change on water quantity and (2) the impacts of land cover and land use changes on the hydrological processes and water cycle. Costa Rica is among the few developing countries that have recently achieved a land use transition with a net increase in forest cover. Osa Region in South Pacific Costa Rica is an appealing study site to assess water supply management plans and to measure the effects of deforestation, forest transitions and climate change projections reported in the region. Rural Community Water Supply systems (ASADAS) in Osa are dealing with an increasing demand of freshwater due to the growing population and the change in the way of life in the rural livelihoods. Land cover mosaics which have resulted from the above mentioned processes are characterized by the abandonment of marginal farmland with the spread over these former grasslands of high return crops and the expansion of secondary forests due to reforestation initiatives. These land use changes have a significant impact on runoff generation in priority water-supply catchments in the humid tropics, as evidenced by the analysis of the Tinoco Experimental Catchment in the Southern Pacific area of Costa Rica. The monitoring system assesses the effects of the different land uses on the runoff responses and on the general water cycle of the basin. Runoff responses at plot scale are analyzed for secondary forests, oil palm plantations, forest plantations and grasslands. The Oil palm plantation plot presented the highest runoff coefficient (mean RC=32.6%), twice that measured under grasslands (mean RC=15.3%) and 20-fold greater than in secondary forest (mean RC=1.7%). A Thornthwaite-type water balance is proposed to assess the impact of land cover and climate change scenarios over water availability for rural communities in Osa Region. Climate change projections were obtained by the downscaling of BCM2, CNCM3 and ECHAM5 models. Precipitation and temperature were averaged and conveyed by the A1B, A2 and B1 IPCC climate scenario for 2030, 2060 and 2080. Precipitation simulations exhibit a positive increase during the dry season for the three scenarios and a decrease during the rainy season, with the highest magnitude (up to 25%) by the end of the 21st century under scenario B1. Monthly mean temperature simulations increase for the three scenarios throughout the year with a maximum increase during the dry season of 5% under A1B and A2 scenarios and 4% under B1 scenario. The Thornthwaite-type Water Balance model indicates important decreases of water surplus for the three climate scenarios during the rainy season, with a maximum decrease on May, which under A1B scenario drop up to 20%, under A2 up to 40% and under B1 scenario drop up to almost 60%. Land cover scenarios were created taking into account current land cover dynamics of the region. Land cover scenario 1 projects a deforestation situation, with forests decreasing up to 15% due to urbanization of the upper catchment areas; land cover scenario 2 projects a forest recovery situation where forested areas increase due to grassland abandonment on areas with more than 30% of slope. Deforestation scenario projects an annual water surplus decrease of 15% while the reforestation scenario projects a water surplus increase of almost 25%. This water balance analysis indicates that climate scenarios are equal contributors as land cover scenarios to future water resource estimations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Solar radiation estimates with clear sky models require estimations of aerosol data. The low spatial resolution of current aerosol datasets, with their remarkable drift from measured data, poses a problem in solar resource estimation. This paper proposes a new downscaling methodology by combining support vector machines for regression (SVR) and kriging with external drift, with data from the MACC reanalysis datasets and temperature and rainfall measurements from 213 meteorological stations in continental Spain. The SVR technique was proven efficient in aerosol variable modeling. The Linke turbidity factor (TL) and the aerosol optical depth at 550 nm (AOD 550) estimated with SVR generated significantly lower errors in AERONET positions than MACC reanalysis estimates. The TL was estimated with relative mean absolute error (rMAE) of 10.2% (compared with AERONET), against the MACC rMAE of 18.5%. A similar behavior was seen with AOD 550, estimated with rMAE of 8.6% (compared with AERONET), against the MACC rMAE of 65.6%. Kriging using MACC data as an external drift was found useful in generating high resolution maps (0.05° × 0.05°) of both aerosol variables. We created high resolution maps of aerosol variables in continental Spain for the year 2008. The proposed methodology was proven to be a valuable tool to create high resolution maps of aerosol variables (TL and AOD 550). This methodology shows meaningful improvements when compared with estimated available databases and therefore, leads to more accurate solar resource estimations. This methodology could also be applied to the prediction of other atmospheric variables, whose datasets are of low resolution.