16 resultados para Linear regression method
em Universidad Politécnica de Madrid
Resumo:
Linear regression is a technique widely used in digital signal processing. It consists on finding the linear function that better fits a given set of samples. This paper proposes different hardware architectures for the implementation of the linear regression method on FPGAs, specially targeting area restrictive systems. It saves area at the cost of constraining the lengths of the input signal to some fixed values. We have implemented the proposed scheme in an Automatic Modulation Classifier, meeting the hard real-time constraints this kind of systems have.
Resumo:
We propose a linear regression method for estimating Weibull parameters from life tests. The method uses stochastic models of the unreliability at each failure instant. As a result, a heteroscedastic regression problem arises that is solved by weighted least squares minimization. The main feature of our method is an innovative s-normalization of the failure data models, to obtain analytic expressions of centers and weights for the regression. The method has been Monte Carlo contrasted with Benard?s approximation, and Maximum Likelihood Estimation; and it has the highest global scores for its robustness, and performance.
Resumo:
Locally weighted regression is a technique that predicts the response for new data items from their neighbors in the training data set, where closer data items are assigned higher weights in the prediction. However, the original method may suffer from overfitting and fail to select the relevant variables. In this paper we propose combining a regularization approach with locally weighted regression to achieve sparse models. Specifically, the lasso is a shrinkage and selection method for linear regression. We present an algorithm that embeds lasso in an iterative procedure that alternatively computes weights and performs lasso-wise regression. The algorithm is tested on three synthetic scenarios and two real data sets. Results show that the proposed method outperforms linear and local models for several kinds of scenarios
Resumo:
Los objetivos de esta tesis fueron 1) obtener y validar ecuaciones de predicción para determinar in vivo la composición corporal y de la canal de conejos en crecimiento de 25 a 77 días de vida utilizando la técnica de la Impedancia Bioeléctrica (BIA), y 2) evaluar su aplicación para determinar diferencias en la composición corporal y de la canal, así como la retención de nutrientes de animales alimentados con diferentes fuentes y niveles de grasa. El primer estudio se realizó para determinar y después validar, usando datos independientes, las ecuaciones de predicción obtenidas para determinar in vivo la composición corporal de los conejos en crecimiento. Se utilizaron 150 conejos a 5 edades distintas (25, 35, 49, 63 y 77 días de vida), con un rango de pesos entre 231 y 3138 g. Para determinar los valores de resistencia (Rs,) and reactancia (Xc,) se usó un terminal (Model BIA-101, RJL Systems, Detroit, MI USA) con cuatro electrodos. Igualmente se registró la distancia entre electrodos internos (D), la longitud corporal (L) y el peso vivo (PV) de cada animal. En cada edad, los animales fueron molidos y congelados (-20 ºC) para su posterior análisis químico (MS, grasa, proteína, cenizas y EB). El contenido en grasa y energía de los animales se incrementó, mientras que los contenidos en proteína, cenizas y agua de los animales disminuyeron con la edad. Los valores medios de Rs, Xc, impedancia (Z), L y D fueron 83.5 ± 23.1 , 18.2 ± 3.8 , 85.6 ± 22.9 , 30.6 ± 6.9 cm y 10.8 ± 3.1 cm. Se realizó un análisis de regresión lineal múltiple para determinar las ecuaciones de predicción, utilizando los valores de PV, L and Z como variables independientes. Las ecuaciones obtenidas para estimar los contenidos en agua (g), PB (g), grasa (g), cenizas (g) and EB (MJ) tuvieron un coeficiente de determinación de (R2) de 0.99, 0.99, 0.97, 0.98 y 0.99, y los errores medios de predicción relativos (EMPR) fueron: 2.79, 6.15, 24.3, 15.2 y 10.6%, respectivamente. Cuando el contenido en agua se expresó como porcentaje, los valores de R2 y EMPR fueron 0.85 and 2.30%, respectivamente. Al predecir los contenidos en proteína (%MS), grasa (%MS), cenizas (%MS) y energía (kJ/100 g MS), se obtuvieron valores de 0.79, 0.83, 0.71 y 0.86 para R2, y 5.04, 18.9, 12.0 y 3.19% para EMPR. La reactancia estuvo negativamente correlacionada con el contenido en agua, cenizas y PB (r = -0.32, P < 0.0001; r = -0.20, P < 0.05; r = -0.26, P < 0.01) y positivamente correlacionada con la grasa y la energía (r = 0.23 y r = 0.24; P < 0.01). Sin embargo, Rs estuvo positivamente correlacionada con el agua, las cenizas y la PB (r = 0.31, P < 0.001; r = 0.28, P < 0.001; r = 0.37, P < 0.0001) y negativamente con la grasa y la energía (r = -0.36 y r = -0.35; P < 0.0001). Igualmente la edad estuvo negativamente correlacionada con el contenido en agua, cenizas y proteína (r = -0.79; r = -0.68 y r = -0.80; P < 0.0001) y positivamente con la grasa y la energía (r = 0.78 y r = 0.81; P < 0.0001). Se puede concluir que el método BIA es una técnica buena y no invasiva para estimar in vivo la composición corporal de conejos en crecimiento de 25 a 77 días de vida. El objetivo del segundo estudio fue determinar y validar con datos independientes las ecuaciones de predicción obtenidas para estimar in vivo la composición de la canal eviscerada mediante el uso de BIA en un grupo de conejos de 25 a 77 días, así como testar su aplicación para predecir la retención de nutrientes y calcular las eficacias de retención de la energía y del nitrógeno. Se utilizaron 75 conejos agrupados en 5 edades (25, 35, 49, 63 y 77 días de vida) con unos pesos que variaron entre 196 y 3260 g. Para determinar los valores de resistencia (Rs, ) y reactancia (Xc, ) se usó un terminal (Model BIA-101, RJL Systems, Detroit, MI USA) con cuatro electrodos. Igualmente se registró la distancia entre electrodos internos (D), la longitud corporal (L) y el peso vivo (PV) del cada animal. En cada edad, los animales fueron aturdidos y desangrados. Su piel, vísceras y contenido digestivo fueron retirados, y la canal oreada fue pesada y molida para posteriores análisis (MS, grasa, PB, cenizas y EB). Los contenidos en energía y grasa aumentaron mientras que los de agua, cenizas y proteína disminuyeron con la edad. Los valores medios de Rs, Xc, impedancia (Z), L y D fueron 95.9±23.9 , 19.5±4.7 , 98.0±23.8 , 20.6±6.3 cm y 13.7±3.1 cm. Se realizó un análisis de regresión linear múltiple para determinar las ecuaciones de predicción, utilizando los valores de PV, L and Z como variables independientes. Los coeficientes de determinación (R2) de las ecuaciones obtenidas para estimar los contenidos en agua (g), PB (g), grasa (g), cenizas (g) and EB (MJ) fueron: 0.99, 0.99, 0.95, 0.96 y 0.98, mientras que los errores medios de predicción relativos (EMPR) fueron: 4.20, 5.48, 21.9, 9.10 y 6.77%, respectivamente. Cuando el contenido en agua se expresó como porcentaje, los valores de R2 y EMPR fueron 0.79 y 1.62%, respectivamente. Cuando se realizó la predicción de los contenidos en proteína (%MS), grasa (%MS), cenizas (%MS) y energía (kJ/100 g MS), los valores de R2 fueron 0.68, 0.76, 0.66 and 0.82, y los de RMPE: 3.22, 10.5, 5.82 and 2.54%, respectivamente. La reactancia estuvo directamente correlacionada con el contenido en grasa (r = 0.24, P < 0.05), mientras que la resistencia guardó una correlación positiva con los contenidos en agua, cenizas y proteína (r = 0.55, P < 0.001; r = 0.54, P < 0.001; r = 0.40, P < 0.005) y negativa con la grasa y la energía (r = -0.44 y r = -0.55; P < 0.001). Igualmente la edad estuvo negativamente correlacionada con los contenidos en agua, cenizas y PB (r = -0.94; r = -0.85 y r = -0.75; P < 0.0001) y positivamente con la grasa y la energía (r = 0.89 y r = 0.90; P < 0.0001). Se estudió la eficacia global de retención de la energía (ERE) y del nitrógeno (ERN) durante todo el periodo de cebo (35-63 d), Los valores de ERE fueron 20.4±7.29%, 21.0±4.18% and 20.8±2.79% en los periodos 35 a 49, 49 a 63 y 35 a 63 d, respectivamente. ERN fue 46.9±11.7%, 34.5±7.32% y 39.1±3.23% para los mismos periodos. La energía fue retenida en los tejidos para crecimiento con una eficiencia del 52.5% y la eficiencia de retención de la energía como proteína y grasa fue de 33.3 y 69.9% respectivamente. La eficiencia de utilización del nitrógeno para crecimiento fue cercana al 77%. Este trabajo muestra como el método BIA es técnica buena y no invasiva para determinar in vivo la composición de la canal y la retención de nutrientes en conejos en crecimiento de 25 a 77 días de vida. En el tercer estudio, se llevaron a cabo dos experimentos con el fin de investigar los efectos del nivel de inclusión y de la fuente de grasa, sobre los rendimientos productivos, la mortalidad, la retención de nutrientes y la composición corporal total y de la canal eviscerada de conejos en crecimiento de 34 a 63 d de vida. En el Exp. 1 se formularon 3 dietas con un diseño experimental factorial 3 x 2 con el tipo de grasa utilizada: Aceite de Soja (SBO), Lecitinas de Soja (SLO) y Manteca (L) y el nivel de inclusión (1.5 y 4%) como factores principales. El Exp. 2 también fue diseñado con una estructura factorial 3 x 2, pero usando SBO, Aceite de Pescado (FO) y Aceite de Palmiste como fuentes de grasa, incluidas a los mismos niveles que en el Exp. 1. En ambos experimentos 180 animales fueron alojados en jaulas individuales (n=30) y 600 en jaulas colectivas en grupos de 5 animales (n=20). Los animales alimentados con un 4% de grasa añadida tuvieron unos consumos diarios y unos índices de conversión más bajos que aquellos alimentados con las dietas con un 1.5% de grasa. En los animales alojados en colectivo del Exp. 1, el consumo fue un 4.8% más alto en los que consumieron las dietas que contenían manteca que en los animales alimentados con las dietas SBO (P = 0.036). La inclusión de manteca tendió a reducir la mortalidad (P = 0.067) en torno al 60% y al 25% con respecto a las dietas con SBO y SLO, respectivamente. La mortalidad aumentó con el nivel máximo de inclusión de SLO (14% vs. 1%, P < 0.01), sin observarse un efecto negativo sobre la mortalidad con el nivel más alto de inclusión de las demás fuentes de grasa utilizadas. En los animales alojados colectivo del Exp. 2 se encontró una disminución del consumo (11%), peso vivo a 63 d (4.8%) y de la ganancia diaria de peso (7.8%) con la inclusión de aceite de pescado con respecto a otras dietas (P < 0.01). Los dos últimos parámetros se vieron especialmente más reducidos cuando en las dietas se incluyó el nivel más alto de FO (5.6 y 9.5%, respectivamente, (P < 0.01)). Los animales alojados individualmente mostraron unos resultados productivos muy similares. La inclusión de aceite pescado tendió (P = 0.078) a aumentar la mortalidad (13.2%) con respecto al aceite de palmiste (6.45%), siendo intermedia para las dietas que contenían SBO (8.10%). La fuente o el nivel de grasa no afectaron la composición corporal total o de la canal eviscerada de los animales. Un incremento en el nivel de grasa dio lugar a una disminución de la ingesta de nitrógeno digestible (DNi) (1.83 vs. 1.92 g/d; P = 0.068 en Exp. 1 y 1.79 vs. 1.95 g/d; P = 0.014 en Exp. 2). Debido a que el nitrógeno retenido (NR) en la canal fue similar para ambos niveles (0.68 g/d (Exp. 1) y 0.71 g/d (Exp. 2)), la eficacia total de retención del nitrógeno (ERN) aumentó con el nivel máximo de inclusión de grasa, pero de forma significativa únicamente en el Exp. 1 (34.9 vs. 37.8%; P < 0.0001), mientras que en el Exp. 2 se encontró una tendencia (36.2 vs. 38.0% en Exp. 2; P < 0.064). Como consecuencia, la excreción de nitrógeno en heces fue menor en los animales alimentados con el nivel más alto de grasa (0.782 vs. 0.868 g/d; P = 0.0001 en Exp. 1, y 0.745 vs. 0.865 g/d; P < 0.0001 en Exp.2) al igual que el nitrógeno excretado en orina (0.702 vs. 0.822 g/d; P < 0.0001 en Exp. 1 y 0.694 vs. 0.7999 g/d; P = 0.014 en Exp.2). Aunque no hubo diferencias en la eficacia total de retención de la energía (ERE), la energía excretada en heces disminuyó al aumentar el nivel de inclusión de grasa (142 vs. 156 Kcal/d; P = 0.0004 en Exp. 1 y 144 vs. 154 g/d; P = 0.050 en Exp. 2). Sin embargo, la energía excretada como orina y en forma de calor fue mayor en el los animales del Exp. 1 alimentados con el nivel más alto de grasa (216 vs. 204 Kcal/d; P < 0.017). Se puede concluir que la manteca y el aceite de palmiste pueden ser considerados como fuentes alternativas al aceite de soja debido a la reducción de la mortalidad, sin efectos negativos sobre los rendimientos productivos o la retención de nutrientes. La inclusión de aceite de pescado empeoró los rendimientos productivos y la mortalidad durante el periodo de crecimiento. Un aumento en el nivel de grasa mejoró el índice de conversión y la eficacia total de retención de nitrógeno. ABSTRACT The aim of this Thesis is: 1) to obtain and validate prediction equations to determine in vivo whole body and carcass composition using the Bioelectrical Impedance (BIA) method in growing rabbits from 25 to 77 days of age, and 2) to study its application to determine differences on whole body and carcass chemical composition, and nutrient retention of animals fed different fat levels and sources. The first study was conducted to determine and later validate, by using independent data, the prediction equations obtained to assess in vivo the whole body composition of growing rabbits. One hundred and fifty rabbits grouped at 5 different ages (25, 35, 49, 63 and 77 days) and weighing from 231 to 3138 g were used. A four terminal body composition analyser was used to obtain resistance (Rs, ) and reactance (Xc, ) values (Model BIA-101, RJL Systems, Detroit, MI USA). The distance between internal electrodes (D, cm), body length (L, cm) and live BW of each animal were also registered. At each selected age, animals were slaughtered, ground and frozen (-20 ºC) for later chemical analyses (DM, fat, CP, ash and GE). Fat and energy body content increased with the age, while protein, ash, and water decreased. Mean values of Rs, Xc, impedance (Z), L and D were 83.5 ± 23.1 , 18.2 ± 3.8 , 85.6 ± 22.9 , 30.6 ± 6.9 cm and 10.8 ± 3.1 cm. A multiple linear regression analysis was used to determine the prediction equations, using BW, L and Z data as independent variables. Equations obtained to estimate water (g), CP (g), fat (g), ash (g) and GE (MJ) content had, respectively, coefficient of determination (R2) values of 0.99, 0.99, 0.97, 0.98 and 0.99, and the relative mean prediction error (RMPE) was: 2.79, 6.15, 24.3, 15.2 and 10.6%, respectively. When water was expressed as percentage, the R2 and RMPE were 0.85 and 2.30%, respectively. When prediction of the content of protein (%DM), fat (%DM), ash (%DM) and energy (kJ/100 g DM) was done, values of 0.79, 0.83, 0.71 and 0.86 for R2, and 5.04, 18.9, 12.0 and 3.19% for RMPE, respectively, were obtained. Reactance was negatively correlated with water, ash and CP content (r = -0.32, P < 0.0001; r = -0.20, P < 0.05; r = -0.26, P < 0.01) and positively correlated with fat and GE (r = 0.23 and r = 0.24; P < 0.01). Otherwise, resistance was positively correlated with water, ash and CP (r = 0.31, P < 0.001; r = 0.28, P < 0.001; r = 0.37, P < 0.0001) and negatively correlated with fat and energy (r = -0.36 and r = -0.35; P < 0.0001). Moreover, age was negatively correlated with water, ash and CP content (r = -0.79; r = -0.68 and r = -0.80; P < 0.0001) and positively correlated with fat and energy (r = 0.78 and r = 0.81; P < 0.0001). It could be concluded that BIA is a non-invasive good method to estimate in vivo whole body composition of growing rabbits from 25 to 77 days of age. The aim of the second study was to determine and validate with independent data, the prediction equations obtained to estimate in vivo carcass composition of growing rabbits by using the results of carcass chemical composition and BIA values in a group of rabbits from 25 to 77 days. Also its potential application to predict nutrient retention and overall energy and nitrogen retention efficiencies was analysed. Seventy five rabbits grouped at 5 different ages (25, 35, 49, 63 and 77 days) with weights ranging from 196 to 3260 g were used. A four terminal body composition analyser (Model BIA-101, RJL Systems, Detroit, MI USA) was used to obtain resistance (Rs, ) and reactance (Xc, ) values. The distance between internal electrodes (D, cm), body length (L, cm) and live weight (BW, g) were also registered. At each selected age, all the animals were stunned and bled. The skin, organs and digestive content were removed, and the chilled carcass were weighed and processed for chemical analyses (DM, fat, CP, ash and GE). Energy and fat increased with the age, while CP, ash, and water decreased. Mean values of Rs, Xc, impedance (Z), L and D were 95.9±23.9 , 19.5±4.7 , 98.0±23.8 , 20.6±6.3 cm y 13.7±3.1 cm. A multiple linear regression analysis was done to determine the equations, using BW, L and Z data as parameters. Coefficient of determination (R2) of the equations obtained to estimate water (g), CP (g), fat (g), ash (g) and GE (MJ) content were: 0.99, 0.99, 0.95, 0.96 and 0.98, and relative mean prediction error (RMPE) were: 4.20, 5.48, 21.9, 9.10 and 6.77%, respectively. When water content was expressed as percentage, the R2 and RMPE were 0.79 and 1.62%, respectively. When prediction of protein (%DM), fat (%DM), ash (%DM) and energy (kJ/100 g DM) content was done, R2 values were 0.68, 0.76, 0.66 and 0.82, and RMPE: 3.22, 10.5, 5.82 and 2.54%, respectively. Reactance was positively correlated with fat content (r = 0.24, P < 0.05) while resistance was positively correlated with water, ash and protein carcass content (r = 0.55, P < 0.001; r = 0.54, P < 0.001; r = 0.40, P < 0.005) and negatively correlated with fat and energy (r = -0.44 and r = -0.55; P < 0.001). Moreover, age was negatively correlated with water, ash and CP content (r = -0.97, r = -0.95 and r = -0.89, P < 0.0001) and positively correlated with fat and GE (r = 0.95 and r = 0.97; P < 0.0001). In the whole growing period (35-63 d), overall energy retention efficiency (ERE) and nitrogen retention efficiency (NRE) were studied. The ERE values were 20.4±7.29%, 21.0±4.18% and 20.8±2.79%, from 35 to 49, 49 to 63 and from 35 to 63 d, respectively. NRE was 46.9±11.7%, 34.5±7.32% and 39.1±3.23% for the same periods. Energy was retained in body tissues for growth with an efficiency of approximately 52.5% and efficiency of the energy for protein and fat retention was 33.3 and 69.9%, respectively. Efficiency of utilization of nitrogen for growth was near to 77%. This work shows that BIA it’s a non-invasive and good method to estimate in vivo carcass composition and nutrient retention of growing rabbits from 25 to 77 days of age. In the third study, two experiments were conducted to investigate the effect of the fat addition and source, on performance, mortality, nutrient retention, and the whole body and carcass chemical composition of growing rabbits from 34 to 63 d. In Exp. 1 three diets were arranged in a 3 x 2 factorial structure with the source of fat: Soybean oil (SBO), Soya Lecithin Oil (SLO) and Lard (L) and the dietary fat inclusion level (1.5 and 4%) as the main factors. Exp. 2 had also arranged as a 3 x 2 factorial design, but using SBO, Fish Oil (FO) and Palmkernel Oil (PKO) as fat sources, and included at the same levels than in Exp. 1. In both experiments 180 animals were allocated in individual cages (n=30) and 600 in collectives cages, in groups of 5 animals (n=20). Animals fed with 4% dietary fat level showed lower DFI and FCR than those fed diets with 1.5%. In collective housing of Exp. 1, DFI was a 4.8% higher in animals fed with diets containing lard than SBO (P = 0.036), being intermediate for diet with SLO. Inclusion of lard also tended to reduce mortality (P = 0.067) around 60% and 25% with respect SBO and SLO diets, respectively. Mortality increased with the greatest level of soya lecithin (14% vs. 1%, P < 0.01). In Exp. 2 a decrease of DFI (11%), BW at 63 d (4.8%) and DWG (7.8%) were observed with the inclusion of fish oil with respect the other two diets (P < 0.01). These last two traits impaired with the highest level of fish oil (5.6 and 9.5%, respectively, (P < 0.01)). Animals housed individually showed similar performance results. The inclusion of fish oil also tended to increase (P = 0.078) mortality (13.2%) with respect palmkernel oil (6.45%), being mortality of SBO intermediate (8.10%). Fat source and level did not affect the whole body or carcass chemical composition. An increase of the fat sources addition led to a decrease of the digestible nitrogen intake (DNi) (1.83 vs. 1.92 g/d; P = 0.068 in Exp. 1 and 1.79 vs. 1.95 g/d; P = 0.014 in Exp. 2). As the nitrogen retained (NR) in the carcass was similar for both fat levels (0.68 g/d (Exp. 1) and 0.71 g/d (Exp. 2)), the overall efficiency of N retention (NRE) increased with the highest level of fat, but only reached significant level in Exp. 1 (34.9 vs. 37.8%; P < 0.0001), while in Exp. 2 a tendency was found (36.2 vs. 38.0% in Exp. 2; P < 0.064). Consequently, nitrogen excretion in faeces was lower in animals fed with the highest level of fat (0.782 vs. 0.868 g/d; P = 0.0001 in Exp. 1, and 0.745 vs. 0.865 g/d; P < 0.0001 in Exp.2). The same effect was observed with the nitrogen excreted as urine (0.702 vs. 0.822 g/d; P < 0.0001 in Exp. 1 and 0.694 vs. 0.7999 g/d; P = 0.014 in Exp.2). Although there were not differences in ERE, the energy excreted in faeces decreased as fat level increased (142 vs. 156 Kcal/d; P = 0.0004 in Exp. 1 and 144 vs. 154 g/d; P = 0.050 in Exp. 2). In Exp. 1 the energy excreted as urine and heat production was significantly higher when animals were fed with the highest level of dietary fat (216 vs. 204 Kcal/d; P < 0.017). It can be concluded that lard and palmkernel oil can be considered as alternative sources to soybean oil due to the reduction of the mortality, without negative effects on performances or nutrient retention. Inclusion of fish impaired animals´ productivity and mortality. An increase of the dietary fat level improved FCR and overall protein efficiency retention.
Resumo:
This paper proposes a new method, oriented to crop row detection in images from maize fields with high weed pressure. The vision system is designed to be installed onboard a mobile agricultural vehicle, i.e. submitted to gyros, vibrations and undesired movements. The images are captured under image perspective, being affected by the above undesired effects. The image processing consists of three main processes: image segmentation, double thresholding, based on the Otsu’s method, and crop row detection. Image segmentation is based on the application of a vegetation index, the double thresholding achieves the separation between weeds and crops and the crop row detection applies least squares linear regression for line adjustment. Crop and weed separation becomes effective and the crop row detection can be favorably compared against the classical approach based on the Hough transform. Both gain effectiveness and accuracy thanks to the double thresholding that makes the main finding of the paper.
Resumo:
Ultrasonic sound velocity measurements with hand-held equipment remain due to their simplicity among the most used methods for non-destructive grading of sawn woods, yet a dedicated normalization effort with respect to strength classes for Spanish species is still required. As part of an ongoing project with the aim of definition of standard testing methods, the effect of the dimensions of commonly tested Scots pine (Pinus sylvestris L.) timbers and equipment testing frequency on ultrasonic velocity were investigated. A dedicated full-wave finite-difference time-domain software allowed simulation of pulse propagation through timbers of representative length and section combinations. Sound velocity measurements vL were performed along the grain with the indirect method at 22 kHz and 45 kHz for grids of measurement points at specific distances. For sample sections larger than the cross-sectional wavelength ?RT, the simulated sound velocity vL converges to vL = (CL/?)0.5. For smaller square sections the sound velocity drops down to vL = (EL/?)0.5, where CL, EL and ? are the stiffness, E-modul and density, respectively. The experiments confirm a linear regression between time of flight and measurement distance even at less than two wavelength menor que2?L distance, the fitted sound speed values increased by 15% between the two tested frequencies.
Resumo:
The objective of this study was to propose a multi-criteria optimization and decision-making technique to solve food engineering problems. This technique was demostrated using experimental data obtained on osmotic dehydratation of carrot cubes in a sodium chloride solution. The Aggregating Functions Approach, the Adaptive Random Search Algorithm, and the Penalty Functions Approach were used in this study to compute the initial set of non-dominated or Pareto-optimal solutions. Multiple non-linear regression analysis was performed on a set of experimental data in order to obtain particular multi-objective functions (responses), namely water loss, solute gain, rehydration ratio, three different colour criteria of rehydrated product, and sensory evaluation (organoleptic quality). Two multi-criteria decision-making approaches, the Analytic Hierarchy Process (AHP) and the Tabular Method (TM), were used simultaneously to choose the best alternative among the set of non-dominated solutions. The multi-criteria optimization and decision-making technique proposed in this study can facilitate the assessment of criteria weights, giving rise to a fairer, more consistent, and adequate final compromised solution or food process. This technique can be useful to food scientists in research and education, as well as to engineers involved in the improvement of a variety of food engineering processes.
Resumo:
We present a theoretical framework and a case study for reusing the same conceptual and computational methodology for both temporal abstraction and linear (unidimensional) space abstraction, in a domain (evaluation of traffic-control actions) significantly different from the one (clinical medicine) in which the method was originally used. The method, known as knowledge-based temporal abstraction, abstracts high-level concepts and patterns from time-stamped raw data using a formal theory of domain-specific temporal-abstraction knowledge. We applied this method, originally used to interpret time-oriented clinical data, to the domain of traffic control, in which the monitoring task requires linear pattern matching along both space and time. First, we reused the method for creation of unidimensional spatial abstractions over highways, given sensor measurements along each highway measured at the same time point. Second, we reused the method to create temporal abstractions of the traffic behavior, for the same space segments, but during consecutive time points. We defined the corresponding temporal-abstraction and spatial-abstraction domain-specific knowledge. Our results suggest that (1) the knowledge-based temporal-abstraction method is reusable over time and unidimensional space as well as over significantly different domains; (2) the method can be generalized into a knowledge-based linear-abstraction method, which solves tasks requiring abstraction of data along any linear distance measure; and (3) a spatiotemporal-abstraction method can be assembled from two copies of the generalized method and a spatial-decomposition mechanism, and is applicable to tasks requiring abstraction of time-oriented data into meaningful spatiotemporal patterns over a linear, decomposable space, such as traffic over a set of highways.
Resumo:
Este estudio profundiza en la estimación de variables forestales a partir de información LiDAR en el Valle de la Fuenfría (Cercedilla, Madrid). Para ello se dispone de dos vuelos realizados con sensor LiDAR en los años 2002 y 2011 y en el invierno de 2013 se ha realizado un inventario de 60 parcelas de campo. En primer lugar se han estimado seis variables dasométricas (volumen, área basimétrica, biomasa total, altura dominante, densidad y diámetro medio cuadrático) para 2013, tanto a nivel de píxel como a nivel de rodal y monte. Se construyeron modelos de regresión lineal múltiple que permitieron estimar con precisión dichas variables. En segundo lugar, se probaron diferentes métodos para la estimación de la distribución diamétrica. Por un lado, el método de predicción de percentiles y, por otro lado, el método de predicción de parámetros. Este segundo método se probó para una función Weibull simple, una función Weibull doble y una combinación de ambas según la distribución que mejor se ajustaba a cada parcela. Sin embargo, ninguno de los métodos ha resultado suficientemente válido para predecir la distribución diamétrica. Por último se estimaron el crecimiento en volumen y área basimétrica a partir de la comparación de los vuelos del 2002 y 2011. A pesar de que la tecnología LiDAR era diferente y solo se disponía de un inventario completo, realizado en 2013, los modelos construidos presentan buenas bondades de ajuste. Asimismo, el crecimiento a nivel de pixel se ha mostrado estar relacionado de forma estadísticamente significativa con la pendiente, orientación y altitud media del píxel. ABSTRACT This project goes in depth on the estimation of forest attributes by means of LiDAR data in Fuenfria’s Valley (Cercedilla, Madrid). The available information was two LiDAR flights (2002 and 2011) and a forest inventory consisting of 60 plots (2013). First, six different dasometric attributes (volume, basal area, total aboveground biomass, top height, density and quadratic mean diameter) were estimated in 2013 both at a pixel, stand and forest level. The models were developed using multiple linear regression and were good enough to predict these attributes with great accuracy. Second, the measured diameter distribution at each plot was fitted to a simple and a double Weibull distribution and different methods for its estimation were tested. Neither parameter prediction method nor percentile prediction method were able to account for the diameter distribution. Finally, volume and top height growths were estimated comparing 2011 LiDAR flight with 2002 LiDAR flight. Even though the LiDAR technology was not the same and there was just one forest inventory with sample plots, the models properly explain the growth. Besides, growth at each pixel is significantly related to its average slope, orientation and altitude.
Resumo:
El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.
Resumo:
Cualquier estructura vibra según unas frecuencias propias definidas por sus parámetros modales (frecuencias naturales, amortiguamientos y formas modales). A través de las mediciones de la vibración en puntos clave de la estructura, los parámetros modales pueden ser estimados. En estructuras civiles, es difícil excitar una estructura de manera controlada, por lo tanto, las técnicas que implican la estimación de los parámetros modales sólo registrando su respuesta son de vital importancia para este tipo de estructuras. Esta técnica se conoce como Análisis Modal Operacional (OMA). La técnica del OMA no necesita excitar artificialmente la estructura, atendiendo únicamente a su comportamiento en servicio. La motivación para llevar a cabo pruebas de OMA surge en el campo de la Ingeniería Civil, debido a que excitar artificialmente con éxito grandes estructuras no sólo resulta difícil y costoso, sino que puede incluso dañarse la estructura. Su importancia reside en que el comportamiento global de una estructura está directamente relacionado con sus parámetros modales, y cualquier variación de rigidez, masa o condiciones de apoyo, aunque sean locales, quedan reflejadas en los parámetros modales. Por lo tanto, esta identificación puede integrarse en un sistema de vigilancia de la integridad estructural. La principal dificultad para el uso de los parámetros modales estimados mediante OMA son las incertidumbres asociadas a este proceso de estimación. Existen incertidumbres en el valor de los parámetros modales asociadas al proceso de cálculo (internos) y también asociadas a la influencia de los factores ambientales (externas), como es la temperatura. Este Trabajo Fin de Máster analiza estas dos fuentes de incertidumbre. Es decir, en primer lugar, para una estructura de laboratorio, se estudian y cuantifican las incertidumbres asociadas al programa de OMA utilizado. En segundo lugar, para una estructura en servicio (una pasarela de banda tesa), se estudian tanto el efecto del programa OMA como la influencia del factor ambiental en la estimación de los parámetros modales. Más concretamente, se ha propuesto un método para hacer un seguimiento de las frecuencias naturales de un mismo modo. Este método incluye un modelo de regresión lineal múltiple que permite eliminar la influencia de estos agentes externos. A structure vibrates according to some of its vibration modes, defined by their modal parameters (natural frequencies, damping ratios and modal shapes). Through the measurements of the vibration at key points of the structure, the modal parameters can be estimated. In civil engineering structures, it is difficult to excite structures in a controlled manner, thus, techniques involving output-only modal estimation are of vital importance for these structure. This techniques are known as Operational Modal Analysis (OMA). The OMA technique does not need to excite artificially the structure, this considers its behavior in service only. The motivation for carrying out OMA tests arises in the area of Civil Engineering, because successfully artificially excite large structures is difficult and expensive. It also may even damage the structure. The main goal is that the global behavior of a structure is directly related to their modal parameters, and any variation of stiffness, mass or support conditions, although it is local, is also reflected in the modal parameters. Therefore, this identification may be within a Structural Health Monitoring system. The main difficulty for using the modal parameters estimated by an OMA is the uncertainties associated to this estimation process. Thus, there are uncertainties in the value of the modal parameters associated to the computing process (internal) and the influence of environmental factors (external), such as the temperature. This Master’s Thesis analyzes these two sources of uncertainties. That is, firstly, for a lab structure, the uncertainties associated to the OMA program used are studied and quantified. Secondly, for an in-service structure (a stress-ribbon footbridge), both the effect of the OMA program and the influence of environmental factor on the modal parameters estimation are studied. More concretely, a method to track natural frequencies of the same mode has been proposed. This method includes a multiple linear regression model that allows to remove the influence of these external agents.
Resumo:
En este trabajo doctoral se evaluó la bioaccesibilidad in vitro para As, Co, Cr, Cu, Ni, Pb y Zn (en la fracción menor de 100μm) por tres procedimientos distintos en 32 muestras de suelo superficial, recogidas en 16 parques infantiles de la ciudad de Madrid.. Dos de los métodos de extracción (SBET y extracción con HCl a pH=1.5) reproducen únicamente la fase gástrica, mientras que otro (RIVM) tiene en cuenta un proceso completo de digestión (gástrico+intestinal). La bioaccesibilidad (%) se definió frente a las concentraciones pseudototales de los elementos traza estudiados (agua regia), utilizando un modelo de regresión lineal pasando por el origen. Los dos métodos gástricos ofrecieron resultados similares y consistentes con datos de otros estudios, siendo el orden de bioaccesibilidad As ≈ Cu ≈ Pb ≈ Zn > Co > Ni > Cr, con rangos entre el 63 y el 7%. Para el procedimiento RIVM (gástrico + intestinal) se obtuvieron valores de un orden similar a los obtenidos en fase gástrica para los elementos As, Cu, Pb y Zn (muy similares para el Zn, algo superiores para Cu y Pb, y algo inferiores para As). Por el contrario, la bioaccesibilidad de Co y Cu es, en este caso, muy superior a la resultante de los ensayos en fase gástrica. El orden de bioaccesibilidad es Co ≈ Cu ≈ Pb > As ≈ Cr ≈ Zn, con rangos entre el 42 y el 69%. Los resultados de los tres procedimientos evaluados correlacionan muy intensamente para los elementos traza As, Cu, Pb y Zn, existiendo intensas correlaciones entre casi todos los elementos estudiados para las dos fases gástricas, no siendo así en el ensayo de digestión completa. Se estudiaron algunas propiedades físico-químicas de los suelos muestreados, así como su composición en algunos elementos mayoritarios con el objeto de evaluar su influencia sobre la bioaccesibilidad. Se observa una dependencia de la bioaccesibilidad (%) de distintos elementos respecto a algunas propiedades de los suelos estudiados, tales como: contenido en Fe, Ca (carbonatos) y P, materia orgánica y pH. El contenido en Fe resulta ser muy relevante en cuanto a la bioaccesibilidad obtenida. En todos los casos correlaciona negativamente con el porcentaje de bioaccesibilidad siendo más significativo este fenómeno en el caso de las extracciones en fase gástrica. Se sugiere que dada la baja solubilización de los óxidos de hierro en los medios extractantes empleados hay una fuerte adsorción de complejos aniónicos (metal-anión cloruro) sobre la superficie de estos óxidos de Fe, con la consiguientes disminución de la bioaccesibilidad. En cuanto al contenido en calcio (carbonatos) este dato parece muy relevante si nos referimos a la bioaccesibilidad del As. Efectivamente el As aparece ligado al Ca del suelo y su solubilización en medios ácidos implicaría un aumento de la bioaccesibilidad del As, mientras que su precipitación al pasar a pH básico (fase intestinal) provocaría una disminución de la bioaccesibilidad. La materia orgánica sólo se ha demostrado relevante respecto a los contenidos pseudototales para el Zn. Para el porcentaje de bioaccesibilidad es significativo para muchos elementos en los ensayos en fase gástrica. La influencia del pH de los suelos estudiados sólo parece ser muy significativo en el caso del Cr. Los valores altamente homogéneos del pH de los suelos estudiados sin duda hacen que este parámetro no resulte significativo para más elementos, tal como se desprende de estudios anteriores. ABSTRACT A total of 32 samples of superficial soil were collected from 16 playground areas in Madrid. The in vitro bioaccessibility of As, Co, Cr, Ni, Pb and Zn (fraction below 100μm) was evaluated by means of three extraction processes. Two of them (SBET and HCl-extraction, pH=1.5) simulate the gastric enviroment, while the other one (RIVM) reproduces a gastric+intestinal digestion sequence. Bioaccessibility (%) was compared against pseudo-total concentrations of trace elements studied (aqua regia) with a linear regression model (forced to intercept the origin) Both gastric methods offered very similar and consistent results with data from other studies, with bioaccessibilities following the order: As ≈ Cu ≈ Pb ≈ Zn > Co > Ni > Cr, and ranging from 63% to 7% The values obtained through RIVM (gastric+ intestinal) method are similar to those obtained in gastric environment for elements: As, Cu, Pb and Zn (very similar to Zn, to a higher extent Cu and Pb, and to a lower extent As). On the contrary the bioaccessibility obtained for elements Co and Cu is considerable higher than in gastric environment sequence. Bioaccessibilities follows the order Co ≈ Cu ≈ Pb >As ≈ Cr ≈ Zn, ranging between 42 and 69%. The three procedures used correlate very intensively to trace elements As,Cu, Pb and Zn, existing strong correlations between almost all elements studied for the two gastric environment, not in the case of the complete digestion sequence. Some soil physical – chemical properties selected were studied, as well as their composition in some main elements in order to assess their influence on bioaccessibility. A dependence was observed between different elements bioaccesibility (%) and some soil properties, such as: Fe, Ca (carbonate) content and P, organic matter and pH. Fe content becomes very relevant regarding the bioaccessibility obtained. In all cases it correlated negatively with bioaccessibility percentage being more significant this phenomenon in gastric environment extractions. It is suggested that given the low solubility of iron oxide in the extractant media used there has to be a strong adsorption of anionic complexes (metal – chloride anion) on these Fe oxides surface, with a consequent decrease of bioaccessibility. Regarding calcium (carbonate) content this data seems very relevant referred to As bioaccessibility. Indeed, As appears to be bound to soil Ca and its solubilisation in acid media would increase As bioaccessibility, while its precipitation at basic pH (intestinal environment) would cause a reduction in bioaccessibility. The influence of organic matter only seemed significant for Zn “total” content, while it is significant in terms of gastric bioaccessibility for many elements. Soil pH only seems to be very significant in case of Cr. The highly homogeneous values for soil pH makes the influence of this parameter negligible for the other elements, unlike what has been observed in several previous studies.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.
Resumo:
Objetivo: Este Trabajo Fin de Máster (TFM) analiza la importancia de la información poblacional en el análisis de datos de experimentos en IS. Por otro lado se intenta abordar un estudio sobre las posibles metodologías que se pueden usar para realizar dicho análisis. Contexto: El análisis se realiza sobre los resultados de un experimento llevado a cabo por el Grupo de Investigación de IS empírica de la UPM, cuyo objetivo es analizar el impacto que tiene el uso de TDD (Test Driven Development) sobre la calidad y la productividad del desarrollo software en comparación con el desarrollo tradicional TLD. Método de Investigación: Se analizan ocho variables demográficas frente a tres variables respuesta. Las metodologías o técnicas de análisis que se revisan son la Dicotomización, la Correlación de Pearson, la regresión lineal múltiple y la stepwise regression. Resultados: No se encuentran evidencias claras para afirmar que las variables demográficas influyen en los resultados de los experimentos. No obstante los resultados no son del todo concluyentes y queda abierta la investigación a realizarse con una muestra más amplia y representativa. En relación a la metodología de análisis aplicada, la dicotomización y la correlación de Pearson presentan deficiencias que se solventan con la regresión lineal múltiple y la stepwise regression. Conclusión: Resulta de vital importancia encontrar evidencias de la influencia de las características demográficas de los sujetos experimentales en el análisis de los datos experimentos en IS. Se ha encontrado un buen método para analizar esta influencia, pero falta replicar este análisis a más experimentos de IS para obtener resultados mejor fundados.---ABSTRACT---Objective: This Master's Thesis (TFM) discusses the importance of demographic data in the analysis of data from experiments in SE. On the other hand, it attempts to address a study of the possible methodologies that can be used to perform the analysis. Context: The analysis is performed on the results of an experiment conducted by the ESE Research Group of the UPM, aimed at analyzing the impact of the use of TDD (Test Driven Development) on quality and productivity, compared to traditional development TLD (Test Last Development). Research Method: Eight demographic variables were analyzed against three response variables. The methodologies and analysis techniques that are reviewed include dichotomization, Pearson correlation, multiple linear regression and stepwise regression. Results: There is not clear evidence to say that demographic variables influence the results of SE experiments. However the results are not conclusive, and are open to research with a broader and more representative sample. Regarding the applied analysis methodology, dichotomization and Pearson correlation have deficiencies that are solved with multiple linear regression and stepwise regression. Conclusion: It is very important to find evidence on the influence of demographic characteristics of subjects in the data analysis of SE experiments. We found a good way to analyze this influence, but is necessary replicate this analysis on more SE experiments to obtain sound results.