1000 resultados para Validación
Resumo:
En este trabajo se aborda el problema de la simulación de las fuerzas de corte en fresado cuando la pieza a mecanizar es flexible. Se presenta el desarrollo de un modelo matemático de tipo mecanicista que relaciona las fuerzas de corte y las deformaciones de la pieza durante la operación de fabricación. El énfasis del desarrollo de este modelo está puesto en la rapidez de cálculo de las fuerzas de corte. Esta característica facilitaría la implementación del modelo en sistemas de corrección de la deformación en tiempo real. El estudio experimental consiste en la validación del modelo propuesto mediante la comparación de fuerzas simuladas y fuerzas medidas, y en el desarrollo de un sistema de medición en línea de la deformación de la pieza, orientado a aplicaciones de compensación activa de la deformación. El modelo propuesto permite la estimación rápida y precisa de las fuerzas de corte y la deformación de la pieza en operaciones de fresado periférico de piezas flexibles.
Resumo:
Las incubadoras de huevos requieren un buen control de la temperatura (37.5-37.8 ºC) y de la humedad relativa (45-60%) durante todo el proceso de incubación. Aunque la concentración de dióxido de carbono es determinante para establecer una buena tasa de ventilación, así como para determinar el estado de proceso de desarrollo de los embriones (De Smit et al., 2006; Han et al., 2011), las incubadoras industriales normalmente no incorporan sensor de CO2. En trabajos previos de los autores se realizó la modelización del gradiente de temperatura y humedad relativa en el interior de una incubadora semi-industrial usando una red tridimensional de sensores, observándose que las variaciones espaciales eran despreciables; haciendo posible usar un único sensor en un punto de control. En dichos ensayos previos se emplearon módulos comerciales de adquisición de datos y de control, cuyo principal inconveniente es el coste considerando el perfil del usuario final: empresario cinegético a tiempo parcial en esta actividad. En la actualidad existen diversas plataformas de hardware y software libre con un bajo coste que se pueden emplear para controlar y monitorizar procesos a través de sus entradas y salidas digitales y analógicas. Una de estas plataformas es Arduino, creada en 2005 como una herramienta para estudiantes. En este trabajo se presenta el diseño y validación de un sistema de control de una incubadora industrial de perdices, empleando un sensor de temperatura y humedad relativa y un sensor de CO2 basado en la tecnología de infrarrojo no dispersivo (NDIR),conectados a una placa ArduinoTM MEGA. La producción de CO2 se ha empleado para modelizar el desarrollo embrionario de los huevos, y estimar el punto final de la incubación. Se dispone de datos relativos a la tasa de nacimientos, en todos los casos cercana al 70%; muy elevado considerando que se desconoce la tasa inicial de huevos fecundados.
Resumo:
El objetivo de este trabajo es evaluar el potencial de la espectroscopía en el infrarrojo cercano combinada con análisis multivariante para identificar el origen geográfico de planchas y tapones de corcho natural. Se utilizaron tres colectivos, el primero formado por 479 planchas de Marruecos, Portugal y España (escala internacional), el segundo por 179 planchas de Andalucía, Cataluña y Extremadura (escala nacional) y el tercero por 90 tapones de Andalucía y Cataluña. Se obtuvieron los datos espectroscópicos de las planchas y tapones en la sección transversal y de los tapones las secciones tangencial y radial, con un espectrofotómetro FossNIRSSystems 6500SYII mediante sonda de fibra óptica en la modalidad de reflectancia remota y longitudes de onda 400-2500 nm. Se obtuvieron diferentes modelos discriminantes mediante PLS2 con el 70% de las muestras, utilizándose el otro 30% en la validación. Se clasificaron correctamente el 98% de las planchas a escala internacional, el 95% de las planchas a escala nacional y el 90% de los tapones (sección transversal), en la calibración y en la validación. Los resultados obtenidos demuestran el potencial de la tecnología NIRS para utilizarse como método rápido y exacto en la predicción de la procedencia geográfica del corcho en plancha y tapón.
Evaluación de parámetros que influyen en el transporte de cloruros en hormigón parcialmente saturado
Resumo:
El deterioro del hormigón debido a la presencia del ion cloruro es causa frecuente de problemas en estructuras localizadas en ambiente marino y alta montaña. Su principal efecto consiste en la despasivación del acero de refuerzo embebido en el hormigón y su consecuente inicio de la corrosión del mismo. El ingreso del ion cloruro al interior del hormigón, está condicionado por una serie de parámetros de origen medioambiental e intrínsecos del hormigón. En función de estos parámetros el ingreso de cloruros en el hormigón puede deberse principalmente a los siguientes mecanismos: difusión y succión capilar. El estudio y evaluación de la resistencia del hormigón frente a cloruros, se ha desarrollado principalmente en condiciones saturadas del hormigón. Lo que ha significado que parámetros de importancia no sean considerados. Debido a esto, distintos procesos que suceden en estructuras reales no han sido identificados y estudiados correctamente. En este trabajo, se diseñó un programa de investigación para evaluar los parámetros que influyen en el transporte cloruros en hormigones no saturados. Para esto se diseñaron tres dosificaciones diferentes de hormigón. En la primera se empleó únicamente cemento portland, para el resto se utilizaron adiciones minerales (humo de sílice y escoria de alto horno). El empleo de adiciones se debió a que tienen un papel importante en la durabilidad de hormigones frente a cloruros. Los hormigones fueron dosificados con una relación agua/material cementício de 0,40 para el hormigón elaborado únicamente con cemento portland y 0,45 para las mezclas con adiciones. Para evaluar las propiedades de los hormigones en estado fresco y endurecido se realizaron ensayos vigentes en las normativas. Con los resultados obtenidos se determinaron parámetros de resistencia mecánica, microestructurales, resistencia al transporte de cloruros e higroscópicos. Una vez caracterizados los hormigones, se diseñó una propuesta experimental para estudiar los principales parámetros presentes en estructuras reales con presencia de cloruros. Tanto la concentración de cloruro como las condiciones ambientales se han variado teniendo como referencia las situaciones reales que podrían producirse en ambientes de alta montaña en la zona centro de España. La propuesta experimental consistió en tratar de evaluar la capacidad de los hormigones al transporte de iones en ambientes de alta montaña con presencia de sales fundentes. Para esto se establecieron 5 fases experimentales donde los principales parámetros ambientales y la presencia de iones agresivos sufrieron variaciones. Al término de cada fase se obtuvieron perfiles de penetración de cloruros en los hormigones y se evaluó la influencia de los parámetros presentes en cada fase. Los resultados experimentales se implementaron en un modelo numérico basado en la teoría de elementos finitos, desarrollado por el grupo de investigación del Departamento de Materiales de Construcción. Para esto fue necesario realizar la calibración y validación del modelo numérico para cada hormigón. El calibrado del modelo precisa de datos químicos y microestructurales de cada hormigón, tales como: capacidad de combinación de cloruros y propiedades difusivas e higroscópicas. Para la validación del modelo numérico se realizaron simulaciones de la propuesta experimental. Los resultados obtenidos se compararon con los valores experimentales. Con el objeto de poder estudiar en mayor profundidad la influencia del grado de saturación del hormigón durante la difusión de cloruros, se llevó a cabo una campaña experimental que consideró distintos grados de saturación en los hormigones. Para esto se establecieron en los hormigones cuatro grados de saturación distintos (50%, 60%, 80% y 100%, aproximadamente), posteriormente se expusieron a cloruro de sodio finamente molido. Una vez transcurrido el tiempo necesario se obtuvieron experimentalmente los perfiles de penetración de cloruros para cada grado de saturación y se calcularon los coeficientes de difusión. Los datos obtenidos durante la campaña experimental han demostrado la influencia positiva que ejercen las adiciones en las mezclas de hormigón. Sus principales ventajas son el refinamiento de la red porosa y el aumento en la capacidad de combinación de cloruros, además de mejorar sus propiedades mecánicas. La porosidad total en las mezclas no presentó grandes cambios, sin embargo, el cambio en la distribución del tamaño de poros es importante en las muestras con adiciones. En especial las fabricadas con humo de sílice. Los coeficientes de difusión y migración de cloruros para las mezclas con adiciones disminuyeron significativamente, igual que los valores de resistividad eléctrica. En los ensayos de penetración del agua bajo presión, fueron las muestras con adiciones las que mostraron las menores penetraciones. Los resultados obtenidos al final de la propuesta experimental permitieron estudiar los distintos parámetros involucrados. Se observó claramente que el proceso de difusión provoca el mayor transporte de cloruros hacia el interior del hormigón. Así mismo se comprobó que el lavado superficial y el secado de las probetas, trasladan cloruros hacia las zonas externas del hormigón. El primero debido a una baja concentración de cloruros externa, mientras que el secado provoca el movimiento de la solución de poro hacia las zonas de secado depositando cloruros en ellas. Las medidas higroscópicas permitieron determinar la existencia de dos zonas distintas en el interior del hormigón. La primera se localizó en el rango de 0-10mm, aproximadamente, en ésta se puso de manifiesto una mayor sensibilidad a los cambios experimentados en el exterior de las probetas. La segunda zona se localizó a una profundidad mayor de 10mm, aproximadamente. Se observó claramente una baja influencia de los cambios externos, siendo la difusión de cloruros el principal mecanismo de transporte presente en ella. En cuanto al estudio de la influencia del grado de saturación en la difusión de cloruros, se observó claramente una marcada diferencia entre los coeficientes de difusión de cloruro obtenidos. Para grados de saturación mayores del 80% el mecanismo de penetración de cloruros por difusión existe de forma significativa. Mientras que para valores inferiores los resultados revelaron que las vías de acceso disminuyen (poros conectado con agua) considerablemente limitando en un alto grado la penetración del agresivo. Para grados de saturación inferiores del 50% los valores del coeficiente de difusión son despreciables. The deterioration of concrete due to chloride ions is a frequent problem identified in structures located in marine and high-mountain environments. After entering the outer layer of the concrete, the chlorides tend to penetrate until they reach and then depassivate the steel bars. Subsequently, this induces the deterioration process of the reinforced concrete. This chloride penetration depends on the environmental conditions and intrinsic parameters of the concrete. Several transport mechanisms, such as diffusion, capillary suction and permeability can be present into the concrete. While recent research into the study and evaluation of concretes with chloride presence has been carried out in saturated concrete, it has not considered certain parameters that can modify this condition. Consequently, at the time of writing several processes that take place in real structures have not been identified and studied. In this work a research programme is designed to evaluate the parameters that influence chloride transport into non-saturated concrete. For this, three concrete mixes were designed by using high-early-strength Portland cement and mineral admixtures (silica fume and blast-slag furnace). The water-cement ratio was 0.40 for the concrete made solely with Portland cement and 0.45 for the concretes that used mineral admixtures as a cement replacement. A set of experimental tests were performed to evaluate the concrete properties both in fresh and hardened state. In addition, an experimental simulation was carried out under laboratory conditions in which the main objective was to assess resistance of concrete to chloride penetration under high-mountain conditions with the presence of de-icing salts. The environmental conditions and surface chloride concentration of the concrete used during the experimental simulation were chosen by considering conditions found in the high-mountain environment in central Spain. For the experimental simulation five phases were designed by varying the environmental parameters and concrete surface concentration. At the end of each phase a chloride profile was obtained with the aim of assessing the influence of the parameters on chloride transport. The experimental results were then used to calibrate and validate a numerical model based on finite element theory developed by the research team from the Construction Materials Department in a previous work. In order to carry out model calibration chemical and microstructural data for the concretes was required, such as binding capacity and the diffusive and hygroscopic properties. The experimental results were compared with the numerical simulations and provided a good fit. With the objective of studying the influence of the degree of concrete saturation on chloride diffusion, an experimental programme was designed. This entailed four saturation degrees (50%, 60%, 80% and 100%) being established in several concrete samples. The samples were then exposed to ground sodium chloride. Once the time required was achieved, the chloride profiles and diffusion coefficients were obtained for each saturation degree. The results obtained from the experimental program revealed a positive influence of the mineral admixtures on the concretes. Their effects were reflected in the pore-network refinement and the increase of chloride binding capacity, together with the improvement of the mechanical properties of the concretes. Total porosity did not reveal any notable change, though the pore-size distribution showed a significant degree of change in the concretes with mineral admixtures, specifically the samples prepared through use of silica fume. The chloride diffusion and migration coefficient, as well as the electrical resistivity values, decreased significantly in the concretes with admixtures. In the water penetration under pressure test, the concretes with admixtures presented the lowest penetration depth. The results obtained in the experimental simulation allowed study of the main parameters involved during the chloride penetration processes in non-saturated concretes in the presence of chlorides. According to the results, the diffusion process was the transport mechanism that transferred the greatest amount of chlorides into the concrete samples. In addition, a chloride movement toward external zones of the concrete, caused by the washing of concrete surface and the drying processes, was identified. The washing occurred when the concrete surface came into contact with a low-chloride concentration solution which initiated the outward movement of chloride diffusion. The drying processes corresponded to a movement of pore solution launched by water evaporation from the outer layer. Furthermore, hygroscopic measurements made in the concrete allowed two areas with distinct behavioural patterns to be identified. The first one, located in the range of approximately 0-10mm, showed a greater degree of influence regarding the changes of the external conditions. The second, situated at depths greater than 10mm, displayed a low influence of external conditions. The main process in this area was diffusion. Study of the influence of the degree of concrete saturation on chloride diffusion showed a clear difference among the chloride diffusion coefficients obtained. For degrees of concrete saturation higher than 80%, chloride penetration by diffusion tends to be significant. However, in the case of extent of saturation of lower than 80%, the results revealed that the access zone through which chlorides can penetrate decreased considerably. For degrees of concrete saturation lower than 50%, the chloride diffusion coefficients were negligible.
Resumo:
Los modelos de simulación de cultivos permiten analizar varias combinaciones de laboreo-rotación y explorar escenarios de manejo. El modelo DSSAT fue evaluado bajo condiciones de secano en un experimento de campo de 16 años en la semiárida España central. Se evaluó el efecto del sistema de laboreo y las rotaciones basadas en cereales de invierno, en el rendimiento del cultivo y la calidad del suelo. Los modelos CERES y CROPGRO se utilizaron para simular el crecimiento y rendimiento del cultivo, mientras que el modelo DSSAT CENTURY se utilizó en las simulaciones de SOC y SN. Tanto las observaciones de campo como las simulaciones con CERES-Barley, mostraron que el rendimiento en grano de la cebada era mas bajo para el cereal continuo (BB) que para las rotaciones de veza (VB) y barbecho (FB) en ambos sistemas de laboreo. El modelo predijo más nitrógeno disponible en el laboreo convencional (CT) que en el no laboreo (NT) conduciendo a un mayor rendimiento en el CT. El SOC y el SN en la capa superficial del suelo, fueron mayores en NT que en CT, y disminuyeron con la profundidad en los valores tanto observados como simulados. Las mejores combinaciones para las condiciones de secano estudiadas fueron CT-VB y CT-FB, pero CT presentó menor contenido en SN y SOC que NT. El efecto beneficioso del NT en SOC y SN bajo condiciones Mediterráneas semiáridas puede ser identificado por observaciones de campo y por simulaciones de modelos de cultivos. La simulación del balance de agua en sistemas de cultivo es una herramienta útil para estudiar como el agua puede ser utilizado eficientemente. La comparación del balance de agua de DSSAT , con una simple aproximación “tipping bucket”, con el modelo WAVE más mecanicista, el cual integra la ecuación de Richard , es un potente método para valorar el funcionamiento del modelo. Los parámetros de suelo fueron calibrados usando el método de optimización global Simulated Annealing (SA). Un lisímetro continuo de pesada en suelo desnudo suministró los valores observados de drenaje y evapotranspiración (ET) mientras que el contenido de agua en el suelo (SW) fue suministrado por sensores de capacitancia. Ambos modelos funcionaron bien después de la optimización de los parámetros de suelo con SA, simulando el balance de agua en el suelo para el período de calibración. Para el período de validación, los modelos optimizados predijeron bien el contenido de agua en el suelo y la evaporación del suelo a lo largo del tiempo. Sin embargo, el drenaje fue predicho mejor con WAVE que con DSSAT, el cual presentó mayores errores en los valores acumulados. Esto podría ser debido a la naturaleza mecanicista de WAVE frente a la naturaleza más funcional de DSSAT. Los buenos resultados de WAVE indican que, después de la calibración, este puede ser utilizado como "benchmark" para otros modelos para periodos en los que no haya medidas de campo del drenaje. El funcionamiento de DSSAT-CENTURY en la simulación de SOC y N depende fuertemente del proceso de inicialización. Se propuso como método alternativo (Met.2) la inicialización de las fracciones de SOC a partir de medidas de mineralización aparente del suelo (Napmin). El Met.2 se comparó con el método de inicialización de Basso et al. (2011) (Met.1), aplicando ambos métodos a un experimento de campo de 4 años en un área en regadío de España central. Nmin y Napmin fueron sobreestimados con el Met.1, ya que la fracción estable obtenida (SOC3) en las capas superficiales del suelo fue más baja que con Met.2. El N lixiviado simulado fue similar en los dos métodos, con buenos resultados en los tratamientos de barbecho y cebada. El Met.1 subestimó el SOC en la capa superficial del suelo cuando se comparó con una serie observada de 12 años. El crecimiento y rendimiento del cultivo fueron adecuadamente simulados con ambos métodos, pero el N en la parte aérea de la planta y en el grano fueron sobreestimados con el Met.1. Los resultados variaron significativamente con las fracciones iniciales de SOC, resaltando la importancia del método de inicialización. El Met.2 ofrece una alternativa para la inicialización del modelo CENTURY, mejorando la simulación de procesos de N en el suelo. La continua emergencia de nuevas variedades de híbridos modernos de maíz limita la aplicación de modelos de simulación de cultivos, ya que estos nuevos híbridos necesitan ser calibrados en el campo para ser adecuados para su uso en los modelos. El desarrollo de relaciones basadas en la duración del ciclo, simplificaría los requerimientos de calibración facilitando la rápida incorporación de nuevos cultivares en DSSAT. Seis híbridos de maiz (FAO 300 hasta FAO 700) fueron cultivados en un experimento de campo de dos años en un área semiárida de regadío en España central. Los coeficientes genéticos fueron obtenidos secuencialmente, comenzando con los parámetros de desarrollo fenológico (P1, P2, P5 and PHINT), seguido de los parámetros de crecimiento del cultivo (G2 and G3). Se continuó el procedimiento hasta que la salida de las simulaciones estuvo en concordancia con las observaciones fenológicas de campo. Después de la calibración, los parámetros simulados se ajustaron bien a los parámetros observados, con bajos RMSE en todos los casos. Los P1 y P5 calibrados, incrementaron con la duración del ciclo. P1 fue una función lineal del tiempo térmico (TT) desde emergencia hasta floración y P5 estuvo linealmente relacionada con el TT desde floración a madurez. No hubo diferencias significativas en PHINT entre híbridos de FAO-500 a 700 , ya que tuvieron un número de hojas similar. Como los coeficientes fenológicos estuvieron directamente relacionados con la duración del ciclo, sería posible desarrollar rangos y correlaciones que permitan estimar dichos coeficientes a partir de la clasificación del ciclo. ABSTRACT Crop simulation models allow analyzing various tillage-rotation combinations and exploring management scenarios. DSSAT model was tested under rainfed conditions in a 16-year field experiment in semiarid central Spain. The effect of tillage system and winter cereal-based rotations on the crop yield and soil quality was evaluated. The CERES and CROPGRO models were used to simulate crop growth and yield, while the DSSAT CENTURY was used in the SOC and SN simulations. Both field observations and CERES-Barley simulations, showed that barley grain yield was lower for continuous cereal (BB) than for vetch (VB) and fallow (FB) rotations for both tillage systems. The model predicted higher nitrogen availability in the conventional tillage (CT) than in the no tillage (NT) leading to a higher yield in the CT. The SOC and SN in the top layer, were higher in NT than in CT, and decreased with depth in both simulated and observed values. The best combinations for the dry land conditions studied were CT-VB and CT-FB, but CT presented lower SN and SOC content than NT. The beneficial effect of NT on SOC and SN under semiarid Mediterranean conditions can be identified by field observations and by crop model simulations. The simulation of the water balance in cropping systems is a useful tool to study how water can be used efficiently. The comparison of DSSAT soil water balance, with a simpler “tipping bucket” approach, with the more mechanistic WAVE model, which integrates Richard’s equation, is a powerful method to assess model performance. The soil parameters were calibrated by using the Simulated Annealing (SA) global optimizing method. A continuous weighing lysimeter in a bare fallow provided the observed values of drainage and evapotranspiration (ET) while soil water content (SW) was supplied by capacitance sensors. Both models performed well after optimizing soil parameters with SA, simulating the soil water balance components for the calibrated period. For the validation period, the optimized models predicted well soil water content and soil evaporation over time. However, drainage was predicted better by WAVE than by DSSAT, which presented larger errors in the cumulative values. That could be due to the mechanistic nature of WAVE against the more functional nature of DSSAT. The good results from WAVE indicate that, after calibration, it could be used as benchmark for other models for periods when no drainage field measurements are available. The performance of DSSAT-CENTURY when simulating SOC and N strongly depends on the initialization process. Initialization of the SOC pools from apparent soil N mineralization (Napmin) measurements was proposed as alternative method (Met.2). Method 2 was compared to the Basso et al. (2011) initialization method (Met.1), by applying both methods to a 4-year field experiment in a irrigated area of central Spain. Nmin and Napmin were overestimated by Met.1, since the obtained stable pool (SOC3) in the upper layers was lower than from Met.2. Simulated N leaching was similar for both methods, with good results in fallow and barley treatments. Method 1 underestimated topsoil SOC when compared with a 12-year observed serial. Crop growth and yield were properly simulated by both methods, but N in shoots and grain were overestimated by Met.1. Results varied significantly with the initial SOC pools, highlighting the importance of the initialization procedure. Method 2 offers an alternative to initialize the CENTURY model, enhancing the simulation of soil N processes. The continuous emergence of new varieties of modern maize hybrids limits the application of crop simulation models, since these new hybrids should be calibrated in the field to be suitable for model use. The development of relationships based on the cycle duration, would simplify the calibration requirements facilitating the rapid incorporation of new cultivars into DSSAT. Six maize hybrids (FAO 300 through FAO 700) were grown in a 2-year field experiment in a semiarid irrigated area of central Spain. Genetic coefficients were obtained sequentially, starting with the phenological development parameters (P1, P2, P5 and PHINT), followed by the crop growth parameters (G2 and G3). The procedure was continued until the simulated outputs were in good agreement with the field phenological observations. After calibration, simulated parameters matched observed parameters well, with low RMSE in most cases. The calibrated P1 and P5 increased with the duration of the cycle. P1 was a linear function of the thermal time (TT) from emergence to silking and P5 was linearly related with the TT from silking to maturity . There were no significant differences in PHINT between hybrids from FAO-500 to 700 , as they had similar leaf number. Since phenological coefficients were directly related with the cycle duration, it would be possible to develop ranges and correlations which allow to estimate such coefficients from the cycle classification.
Resumo:
La calidad de las planchas de corcho, entendida como su aptitud para la fabricación de tapones de corcho natural, determina la clase comercial de las mismas y, por tanto, su valor económico. Esta clasificación, llevada a cabo tradicionalmente en la industria preparadora por el escogedor, depende en gran medida de las anomalías presentes en la plancha. Con el objetivo de conocer qué variables entran en juego en la clasificación y cuál es el peso de cada una de ellas, se han realizado diferentes estudios. García de Ceca (2001) propone modelos de clasificación de piezas de corcho en plancha de 20 cm x 20 cm, elaborados con muestras procedentes de las principales regiones productoras de corcho a nivel global: Portugal, España y Marruecos En el presente estudio se lleva cabo la validación de los modelos propuestos por el citado autor, utilizando ahora piezas procedentes de las principales regiones productoras a nivel nacional (Andalucía, Extremadura y Cataluña), obtenidas en muestreos completamente independientes de los utilizados en la elaboración de los modelos. A la vista de los resultados obtenidos, se proponen medidas para la mejora y actualización de los modelos, atendiendo a criterios tecnológicos, normativos y científicos. Por último, se desarrolla un software para la clasificación de muestras de corcho por gestores y propietarios, al que se añade un breve manual metodológico. Los modelos de García de Ceca (2001) resultan aplicables para las procedencias españolas, obteniendo un 79,66% y un 75,39% de aciertos en la clasificación de piezas, para los modelos 2TC y 2TR respectivamente. Se han incluido modificaciones relativas a la presencia de mancha amarilla, los calibres demasiado delgados para la fabricación de tapones y la superficie ocupada por anomalías, consiguiendo elevar los resultados de acierto al 86,27% y 89,12%. Por último, se ha desarrollado una aplicación en Visual Basic® for Applications sobre Microsoft Excel® que permite la clasificación de corcho por personal no especializado, a partir de la metodología descrita en el manual.
Resumo:
Actualmente son una práctica común los procesos de normalización de métodos de ensayo y acreditación de laboratorios, ya que permiten una evaluación de los procedimientos llevados a cabo por profesionales de un sector tecnológico y además permiten asegurar unos mínimos de calidad en los resultados finales. En el caso de los laboratorios de acústica, para conseguir y mantener la acreditación de un laboratorio es necesario participar activamente en ejercicios de intercomparación, utilizados para asegurar la calidad de los métodos empleados. El inconveniente de estos ensayos es el gran coste que suponen para los laboratorios, siendo en ocasiones inasumible por estos teniendo que renunciar a la acreditación. Este Proyecto Fin de Grado se centrará en el desarrollo de un Laboratorio Virtual implementado mediante una herramienta software que servirá para realizar ejercicios de intercomparación no presenciales, ampliando de ese modo el concepto e-comparison y abriendo las bases a que en un futuro este tipo de ejercicios no presenciales puedan llegar a sustituir a los llevados a cabo actualmente. En el informe primero se hará una pequeña introducción, donde se expondrá la evolución y la importancia de los procedimientos de calidad acústica en la sociedad actual. A continuación se comentará las normativas internacionales en las que se soportará el proyecto, la norma ISO 145-5, así como los métodos matemáticos utilizados en su implementación, los métodos estadísticos de propagación de incertidumbres especificados por la JCGM (Joint Committee for Guides in Metrology). Después, se hablará sobre la estructura del proyecto, tanto del tipo de programación utilizada en su desarrollo como la metodología de cálculo utilizada para conseguir que todas las funcionalidades requeridas en este tipo de ensayo estén correctamente implementadas. Posteriormente se llevará a cabo una validación estadística basada en la comparación de unos datos generados por el programa, procesados utilizando la simulación de Montecarlo, y unos cálculos analíticos, que permita comprobar que el programa funciona tal y como se ha previsto en la fase de estudio teórico. También se realizará una prueba del programa, similar a la que efectuaría un técnico de laboratorio, en la que se evaluará la incertidumbre de la medida calculándola mediante el método tradicional, pudiendo comparar los datos obtenidos con los que deberían obtenerse. Por último, se comentarán las conclusiones obtenidas con el desarrollo y pruebas del Laboratorio Virtual, y se propondrán nuevas líneas de investigación futuras relacionadas con el concepto e-comparison y la implementación de mejoras al Laboratorio Virtual. ABSTRACT. Nowadays it is common practise to make procedures to normalise trials methods standards and laboratory accreditations, as they allow for the evaluation of the procedures made by professionals from a particular technological sector in addition to ensuring a minimum quality in the results. In order for an acoustics laboratory to achieve and maintain the accreditation it is necessary to actively participate in the intercomparison exercises, since these are used to assure the quality of the methods used by the technicians. Unfortunately, the high cost of these trials is unaffordable for many laboratories, which then have to renounce to having the accreditation. This Final Project is focused on the development of a Virtual Laboratory implemented by a software tool that it will be used for making non-attendance intercomparison trials, widening the concept of e-comparison and opening the possibility for using this type of non-attendance trials instead of the current ones. First, as a short introduction, I show the evolution and the importance today of acoustic quality procedures. Second, I will discuss the international standards, such as ISO 145-5, as well the mathematic and statistical methods of uncertainty propagation specified by the Joint Committee for Guides in Metrology, that are used in the Project. Third, I speak about the structure of the Project, as well as the programming language structure and the methodology used to get the different features needed in this acoustic trial. Later, a statistical validation will be carried out, based on comparison of data generated by the program, processed using a Montecarlo simulation, and analytical calculations to verify that the program works as planned in the theoretical study. There will also be a test of the program, similar to one that a laboratory technician would carry out, by which the uncertainty in the measurement will be compared to a traditional calculation method so as to compare the results. Finally, the conclusions obtained with the development and testing of the Virtual Laboratory will be discussed, new research paths related to e-comparison definition and the improvements for the Laboratory will be proposed.
Resumo:
Las evidencias del impacto sobre el medio ambiente asociado al funcionamiento de las ciudades hacen que sea urgente proponer medidas que reduzcan este consumo y mejoren la eficiencia del metabolismo urbano. La existencia de límites en la disponibilidad de recursos materiales y energéticos, plantea actualmente un reto importante al ser humano: ¿son posibles otras formas de organización más adecuadas a esta condición de limitación? Para dar respuesta, resulta fundamental conocer cómo interactuarán nuestros sistemas urbanos en un modelo económico de continuo desarrollo, con la población que alojan, y si podrán adaptarse a la capacidad de carga limitada del Planeta, evitando futuras situaciones de colapso anunciadas desde distintos ámbitos científicos. En ese contexto, la tesis formula un método de análisis del alojamiento que, mediante la evaluación a largo plazo, permita proponer medidas de intervención para reducir el consumo de recursos asociado a su funcionamiento. Se parte de un enfoque ecológico para definir el alojamiento como una parte fundamental del sistema urbano, que está compuesto por tres elementos: habitantes, viviendas y recursos naturales; por tanto, para reducir los impactos asociados al alojamiento es necesario tener en cuenta la diferente naturaleza de estos elementos y el carácter dinámico de las relaciones que se producen entre ellos. La Ecología, a través del estudio de los ecosistemas, ha identificado estrategias de supervivencia y adaptación ante los cambios y perturbaciones. La similitud entre los elementos de un ecosistema (población y soporte) y los del alojamiento (habitantes, viviendas y recursos naturales) permite verificar que la aplicación de estas estrategias al alojamiento puede conducir a situaciones más deseables en la relación de los sistemas urbanos con su entorno A partir de esta hipótesis, se propone un método de análisis diacrónico1 o a largo plazo, para conocer la evolución en el tiempo del alojamiento a través de la cuantificación de una serie de indicadores descriptivos de los habitantes, las viviendas y los recursos naturales. La aplicación de este método a un sistema urbano permitiría conocer las características de los elementos del sistema y, para un ámbito temporal de futuro, prever su evolución, identificar escenarios no deseables y proponer medidas de intervención que corrijan anticipadamente estas situaciones y eviten impactos ambientales innecesarios. La validación del método de análisis se realiza mediante la aplicación al caso de Madrid en periodo retrospectivo (de 1940 a 2010) A partir del estudio de la evolución en Madrid de los indicadores seleccionados, se proponen medidas de intervención en el alojamiento basadas en estrategias ecológicas que habrían conducido a una evolución alternativa con un impacto menor sobre el medio ambiente que la situación actual. El método de análisis se aplica con carácter prospectivo definiendo tres escenarios de futuro para Madrid hasta 2100. Para cada uno de ellos se analiza la evolución previsible de los indicadores y se proponen diferentes medidas de intervención que, desde el punto de vista ecológico, conducirían a una situación más adecuada. La tesis concluye en el interés de este método de análisis diacrónico que permite estimar posibilidades en la evolución futura del alojamiento, identificar las necesidades de recursos para responder a las demandas de los habitantes y, desde un enfoque ecológico, definir, cuantificar y evaluar posibles medidas de intervención que reduzcan los impactos ambientales. El método, por tanto, es una herramienta de interés para la toma de decisiones en la intervención en el alojamiento y en la planificación urbana a largo plazo. ABSTRACT Evidence of the impact on the environment associated with the operation of cities make it urgent to propose measures to reduce energy consumption and improve the efficiency of urban metabolism. The limited availability of materials and energy resources currently poses a significant challenge to human beings: are more appropriate forms of organization for this limitation possible? In response, it is essential to know how our urban systems with the population they host will interact in an economic model of continuous development and whether they can adapt to the limited endurance capacity of the planet, thus avoiding future collapse situations which are being announced from different scientific fields. In this context, the thesis puts forward a method of housing analysis that by a long term assessment will enable to propose intervention measures to reduce resource consumption associated with its operation. The thesis is based on an ecological approach to identify housing as a fundamental part of the urban system, which is composed of three elements: inhabitants, homes and natural resources. Therefore, in order to reduce the impacts associated with housing it is necessary to consider the characteristics of these elements and the dynamic nature of the relationships among them. Ecology, through the analysis of ecosystems, has identified strategies for survival and adaptation to changes and disturbances. The similarity between the elements of an ecosystem (population and support) and housing (inhabitants, homes and natural resources) enables to verify that the implementation of these strategies to housing can lead to better situations in the relationship existing between urban systems with their environment. From this hypothesis, a diachronic or long term analysis method is proposed to know the evolution of housing over time through the quantification of a descriptive indicators series of inhabitants, homes and natural resources. The implementation of this method to a urban system would allow better knowledge of the characteristics of these elements and forecast their development, identify undesirable scenarios and propose early intervention measures to correct these situations and avoid unnecessary environmental impacts. The validation of the method of analysis has been proved in the city of Madrid for the years 1940-2010. From the analysis of the evolution of the indicators selected, accommodation intervention measures are proposed based on ecological strategies that would have led to an alternative development having less impact on the environment than that of the current situation. The analysis method is implemented prospectively defining three future scenarios for the city of Madrid until 2100. The likely evolution of the indicators are analyzed for each scenario and various intervention measures that would lead to a better situation from an ecological point of view are proposed. The thesis conclusion states the interest of this diachronic analysis method to estimate potential future developments in the housing field, identify resource requirements to meet the demands of the citizens and, from an ecological approach, define, quantify and assess possible intervention measures to reduce environmental impacts. The method, therefore, is an interesting tool for decision-making process as for the intervention in housing and urban planning in the long term.
Resumo:
La actividad de muchas empresas, y en concreto las de software, está basada en proyectos. Típicamente, estas empresas tendrán un modelo de negocio orientado a productos para un mercado abierto, o un modelo de negocio orientado a consultoría para otras empresas. La empresa LeadClic Solutions se incluye en el segundo grupo. Se trata de una consultoría especializada en una tecnología emergente, Salesforce, cuya labor consiste en el desarrollo de aplicaciones cloud en esta plataforma que satisfagan las necesidades de sus clientes, desde empresas relativamente pequeñas hasta grandes empresas internacionales. Ante esta variedad de realidades, LeadClic necesita una herramienta versátil que permita una gestión eficaz de proyectos de distinta índole, integrando al mismo tiempo gestión de clientes, planificación, control de tiempo y costes, seguimiento, y gestión de recursos humanos. En la actualidad, la empresa basa esta gestión en un gran elenco de programas especializados, desatacando hojas de cálculo, herramientas de gestión de proyectos en diversos programas locales o en la nube, correo electrónico, servicios de comunicación y desarrollos personalizados en Salesforce. El objetivo de este Trabajo Fin de Grado es el diseño, implementación y validación de una herramienta en la nube, sobre la plataforma Salesforce, que integre las soluciones a todas las necesidades de la empresa. ---ABSTRACT---Many companies’ activity, in particular software companies’, is based on projects. Typically, these companies have a product for open market - oriented business model, or a B2B consultancy business model. The company LeadClic Solutions is included in the second group. It is a small consultancy, specialized in an emergent technology, Salesforce, that develops cloud applications in that platform to satisfy its clients’ needs, from small companies to big international ones. Faced with this variety of situations, LeadClic needs a versatile tool able to cope with an effective management of projects of different types, integrating at once client management, planning, time and costs control, monitoring, and human resources management. At the moment, the company bases this management on a wide range of specialized programs, such as spreadsheets, local and cloud based project management tools, emailing, communication services and Salesforce based custom developments. This Final Degree Project seeks to design, implement and validate a cloud based tool, on the Salesforce platform, to integrate the solution to all of the company’s needs into one single application.
Resumo:
Durante décadas y aun en la actualidad muchas organizaciones, a nivel mundial, continúan afrontando pérdidas significativas debido a fracasos parciales y totales respecto a sus inversiones en sistemas de información (SI), planteando serios retos a los niveles gerenciales y los profesionales de SI. Estadísticas alarmantes y décadas de experiencia en la praxis en el área de SI en diversas organizaciones llevan al autor a poner el énfasis en los usuarios finales internos (UF) que son designados como representantes (UFR) de sus pares en los proyectos de desarrollo de SI (PDSI) por considerarlos como factores influyentes de manera significativa en el problema. Particularmente, con enfoque en ciertos factores de los UFR críticos para el éxito de los PDSI, con dimensiones analizadas de forma aislada o incompleta en otros estudios empíricos, a la fecha. No se encontraron estudios en Latinoamérica ni en otras latitudes que abordasen el fenómeno del éxito/fracaso de los SI desde el punto de vista adoptado en esta tesis. Por ello, esta investigación empírica ha evaluado en qué grado estos factores pudiesen influenciar los resultados durante el desarrollo e implementación de SI y su posible impacto en la satisfacción de los UF, siendo esta última aceptada por variados autores como la principal medida del éxito de los SI. Este estudio fue realizado en América Latina en las cuatro grandes empresas industriales que integran verticalmente el sector aluminio de Venezuela, sometidas a un macro PDSI para instalar el paquete, de tipo ERP, SAP/R3. Experimentados profesionales fueron encuestados o entrevistados, tales como altos ejecutivos, desarrolladores, líderes de proyecto y líderes de los UF. Un enfoque metodológico de triangulación permitió combinar un análisis cuantitativo con un análisis cualitativo interpretativo del tipo hermenéutico/dialéctico, hallándose resultados convergentes y complementarios. Un análisis estadístico, utilizando Partial Least Squares (PLS), seguido de un análisis hermenéutico/dialéctico. Los resultados confirmaron un hecho importante: en los casos problemáticos, paradójicamente, los orígenes de las razones de rechazo de esos SI argumentadas por los UF, en alto grado, apuntaron a los UFR o a ellos mismos. Los resultados también confirmaron la prevalencia de factores de orden cognitivo, conductual y político en estas organizaciones sobre los tecnológicos, al igual que el alto riesgo de dar por sentado la presencia y calidad de los factores requeridos de los UFR y de los otros factores estudiados. La validación estadística del modelo propuesto reveló al constructo conocimientos de los UFR como la principal variable latente, con los variables indicadoras que componen este constructo ejerciendo la mayor influencia sobre la calidad y el éxito de los SI. Un hallazgo contrario al de otros estudios, mostró que los conocimientos sobre las tecnologías de la información (TI) fueron los menos relevantes. Los SI de nómina y de administración de los RRHH fueron los más problemáticos, como suele ser el caso, por su complejidad en organizaciones grandes. Las conclusiones principales confirman el decisivo rol de los UF para el éxito de los PDSI y su relación con la creciente problemática planteada, la cual amerita más investigación y de las organizaciones una mayor atención y preparación. Descuidar los factores humanos y sociales así como una efectiva planificación y gestión de los mismos en preparación para estos proyectos origina serios riesgos. No obstante las limitaciones de este trabajo, la problemática analizada suele influir en los PDSI en diversas organizaciones, indistintamente de su tamaño o tipo de SI, estimándose, por tanto, que los resultados, conclusiones y recomendaciones de esta investigación tienen un alto grado de generalización. Una relación de indicadores claves es suministrada con fines preventivos. Finalmente, los factores evaluados pueden usarse para ampliar el modelo reconocido de DeLone y McLean (2003), conectándolos como variables latentes de sus variables independientes calidad de la información y calidad del SI. ABSTRACT For decades, many organizations worldwide have been enduring heavy losses due to partial and total failures regarding their investments in information systems (IS), posing serious challenges to all management levels and IS practitioners. Alarming statistics in this regard and decades of practice in the IS area lead the author to place an emphasis on the end users (EU) who are appointed in representation of their peers (EUR) to IS development projects (ISDP), considering them as highly influential factors on the problem. Especially, focusing on certain EUR success factors, and their dimensions, deemed critical to any IS development and implementation, omitted or not thoroughly analyzed neither in the theory nor in the empirical research on the subject, so far. No studies were found in Latin America or elsewhere addressing the phenomenon of IS success/failure from the perspective presented herein. Hence, this empirical research has assessed to what degree such factors can influence the outcomes of an ISDP and their feasible impact on the EU´s satisfaction, being the latter accepted by several authors as the main measure of IS success. This study was performed in Latin America embracing four major industrial enterprises, which vertically integrate the aluminum sector of Venezuela, subjected to a macro ISDP to install the ERP-type package SAP/R3. The field work included surveying and interviewing experienced professionals such as IS executives, IS developers, IS project leaders and end-user project leaders. A triangulation methodological approach allowed combining quantitative and interpretive analyses, obtaining convergent and complementing results. A statistical analysis, using Partial Least Squares (PLS), was carried out followed by a hermeneutical/dialectical analysis. Results confirmed a major finding: in problematic cases, paradoxically, the origins of IS rejection reasons argued by the EU, at a high degree, were usually traceable to the EUR and themselves. The results also confirmed the prevalence of cognitive, behavioral and political factors in these organizations as well as the high risk of taking for granted the presence and quality of those factors demanded from the EUR. The statistical validation of the proposed model revealed the construct EUR knowledge as the main latent variable, with its items exerting a major influence on IS quality and success. Another finding, in contradiction with that of other studies, proved knowledge of information technology (IT) aspects to be irrelevant. The payroll and the human resources administration IS were the most problematic, as is usually the case in large companies. The main conclusions confirm the EU´s decisive role for IS success and their relationship with the problem, which continues, demanding more research and, from organizations, more attention and preparation. Neglecting human and social factors in organizations as well as their effective planning and management in preparation for ISDP poses serious risks. Despite the limitations of this work, the analyzed problem tends to influence ISDP in a wide range of organizations; regardless of their size or type of IS, thus showing a high degree of generalization. Therefore it is believed that the results, conclusions and suggestions of this research have a high degree of generalization. A detailed checklist comprising key measures is provided for preventive actions. Finally, the factors evaluated can be used to expand the well-known model of DeLone & McLean (2003), by connecting them as latent variables of its independent variables information quality and IS quality.
Resumo:
La Ingeniería del Software (IS) Empírica adopta el método científico a la IS para facilitar la generación de conocimiento. Una de las técnicas empleadas, es la realización de experimentos. Para que el conocimiento obtenido experimentalmente adquiera el nivel de madurez necesario para su posterior uso, es necesario que los experimentos sean replicados. La existencia de múltiples replicaciones de un mismo experimento conlleva la existencia de numerosas versiones de los distintos productos generados durante la realización de cada replicación. Actualmente existe un gran descontrol sobre estos productos, ya que la administración se realiza de manera informal. Esto causa problemas a la hora de planificar nuevas replicaciones, o intentar obtener información sobre las replicaciones ya realizadas. Para conocer con detalle la dimensión del problema a resolver, se estudia el estado actual de la gestión de materiales experimentales y su uso en replicaciones, así como de las herramientas de gestión de materiales experimentales. El estudio concluye que ninguno de los enfoques estudiados proporciona una solución al problema planteado. Este trabajo persigue como objetivo mejorar la administración de los materiales experimentales y replicaciones de experimentos en IS para dar soporte a la replicación de experimentos. Para satisfacer este objetivo, se propone la adopción en experimentación de los paradigmas de Gestión de Configuración del Software (GCS) y Línea de Producto Software (LPS). Para desarrollar la propuesta se decide utilizar el método de investigación acción (en inglés action research). Para adoptar la GCS a experimentación, se comienza realizando un estudio del proceso experimental como transformación de productos; a continuación, se realiza una adopción de conceptos fundamentada en los procesos del desarrollo software y de experimentación; finalmente, se desarrollan un conjunto de instrumentos, que se incorporan a un Plan de Gestión de Configuración de Experimentos (PGCE). Para adoptar la LPS a experimentación, se comienza realizando un estudio de los conceptos, actividades y fases que fundamentan la LPS; a continuación, se realiza una adopción de los conceptos; finalmente, se desarrollan o adoptan las técnicas, simbología y modelos para dar soporte a las fases de la Línea de Producto para Experimentación (LPE). La propuesta se valida mediante la evaluación de su: viabilidad, flexibilidad, usabilidad y satisfacción. La viabilidad y flexibilidad se evalúan mediante la instanciación del PGCE y de la LPE en experimentos concretos en IS. La usabilidad se evalúa mediante el uso de la propuesta para la generación de las instancias del PGCE y de LPE. La satisfacción evalúa la información sobre el experimento que contiene el PGCE y la LPE. Los resultados de la validación de la propuesta muestran mejores resultados en los aspectos de usabilidad y satisfacción a los experimentadores. ABSTRACT Empirical software engineering adapts the scientific method to software engineering (SE) in order to facilitate knowledge generation. Experimentation is one of the techniques used. For the knowledge generated experimentally to acquire the level of maturity necessary for later use, the experiments have to be replicated. As the same experiment is replicated more than once, there are numerous versions of all the products generated during a replication. These products are generally administered informally without control. This is troublesome when it comes to planning new replications or trying to gather information on replications conducted in the past. In order to grasp the size of the problem to be solved, this research examines the current state of the art of the management and use of experimental materials in replications, as well as the tools managing experimental materials. The study concludes that none of the analysed approaches provides a solution to the stated problem. The aim of this research is to improve the administration of SE experimental materials and experimental replications in support of experiment replication. To do this, we propose the adaptation of software configuration management (SCM) and software product line (SPL) paradigms to experimentation. The action research method was selected in order to develop this proposal. The first step in the adaptation of the SCM to experimentation was to analyse the experimental process from the viewpoint of the transformation of products. The concepts were then adapted based on software development and experimentation processes. Finally, a set of instruments were developed and added to an experiment configuration management plan (ECMP). The first step in the adaptation of the SPL to experimentation is to analyse the concepts, activities and phases underlying the SPL. The concepts are then adapted. Finally, techniques, symbols and models are developed or adapted in support of the experimentation product line (EPL) phases. The proposal is validated by evaluating its feasibility, flexibility, usability and satisfaction. Feasibility and flexibility are evaluated by instantiating the ECMP and the EPL in specific SE experiments. Usability is evaluated by using the proposal to generate the instances of the ECMP and EPL. The results of the validation of the proposal show that the proposal performs better with respect to usability issues and experimenter satisfaction.
Resumo:
Este trabajo presenta un sistema de posicionamiento local (LPS) para personas en entornos interiores basado en la combinación de tecnología RFID activa y una metodología bayesiana de estimación de la posición a partir de la fuerza de las señales de RF recibidas. La complejidad inherente a la propagación de las ondas de RF en entornos interiores causa grandes fluctuaciones en el nivel de la fuerza de la señal, por lo que las técnicas bayesianas, de naturaleza estadística, tienen ventajas significativas frente a métodos de posicionamiento más comunes, como multilateración, minimización cuadrática o localización por fingerprinting. En la validación experimental del sistema RFID-LPS se consigue un error de posicionamiento medio de 2.10 m (mediana de 1.84 m y 3.89 m en el 90% de los casos), en un área abarcada de 475 m2 con 29 tags RFID, y con velocidades de desplazamiento de hasta 0.5 m/s, prestaciones iguales o superiores a otros sistemas del estado del arte. Aunque existen precedentes en Robótica móvil, la combinación de métodos bayesianos y tecnología RFID activa usada en este trabajo es original en el marco de los sistemas de localización de personas, cuyos desplazamientos son generalmente más impredecibles que los de los robots. Otros aspectos novedosos investigados son la posibilidad de alcanzar una estimación conjunta de posición y orientación de un usuario con dos métodos distintos (uso de antenas directivas y aprovechamiento de la atenuación de la señal de RF por el cuerpo humano), la escalabilidad del sistema RFID-LPS, y la estimación de la posición por técnicas bayesianas en sistemas simples que pueden detectar los marcadores RFID, pero no medir su fuerza de señal.
Resumo:
Este documento contiene el proceso de prediseño y cálculo de un satélite de observación terrestre mediante imágenes fotográficas. El principal objetivo del proyecto es el diseño detallado del subsistema de potencia del satélite y a validación de un modelo de funcionamiento del sistema de potencia de las placas solares que alimentan al mismo y mediante la herramienta Simulink. La primera parte consiste en un diseño breve de los subsistemas y parámetros más importantes del satélite tales como el Sistema de Control de Actitud, Sistema de Control Térmico y Sistema de Comunicaciones, además de la estructura del satélite, la órbita en la que se encontrará, el lanzador que se usará para situarlo en órbita y la cámara que llevara a bordo para la captación de imágenes. La segunda parte trata del diseño del subsistema de potencia de una manera más detallada y de su simulación mediante una herramienta diseñada en el programa MATLAB con la herramienta Simulink. Se pretende usar la herramienta para simular el comportamiento del subsistema de potencia de un satélite conocido que será el UPMSat-2.
Resumo:
El objetivo de la presente investigación es el desarrollo de un modelo de cálculo rápido, eficiente y preciso, para la estimación de los costes finales de construcción, en las fases preliminares del proyecto arquitectónico. Se trata de una herramienta a utilizar durante el proceso de elaboración de estudios previos, anteproyecto y proyecto básico, no siendo por tanto preciso para calcular el “predimensionado de costes” disponer de la total definición grafica y literal del proyecto. Se parte de la hipótesis de que en la aplicación práctica del modelo no se producirán desviaciones superiores al 10 % sobre el coste final de la obra proyectada. Para ello se formulan en el modelo de predimensionado cinco niveles de estimación de costes, de menor a mayor definición conceptual y gráfica del proyecto arquitectónico. Los cinco niveles de cálculo son: dos que toman como referencia los valores “exógenos” de venta de las viviendas (promoción inicial y promoción básica) y tres basados en cálculos de costes “endógenos” de la obra proyectada (estudios previos, anteproyecto y proyecto básico). El primer nivel de estimación de carácter “exógeno” (nivel .1), se calcula en base a la valoración de mercado de la promoción inmobiliaria y a su porcentaje de repercusión de suelo sobre el valor de venta de las viviendas. El quinto nivel de valoración, también de carácter “exógeno” (nivel .5), se calcula a partir del contraste entre el valor externo básico de mercado, los costes de construcción y los gastos de promoción estimados de la obra proyectada. Este contraste entre la “repercusión del coste de construcción” y el valor de mercado, supone una innovación respecto a los modelos de predimensionado de costes existentes, como proceso metodológico de verificación y validación extrínseca, de la precisión y validez de las estimaciones resultantes de la aplicación práctica del modelo, que se denomina Pcr.5n (Predimensionado costes de referencia con .5niveles de cálculo según fase de definición proyectual / ideación arquitectónica). Los otros tres niveles de predimensionado de costes de construcción “endógenos”, se estiman mediante cálculos analíticos internos por unidades de obra y cálculos sintéticos por sistemas constructivos y espacios funcionales, lo que se lleva a cabo en las etapas iniciales del proyecto correspondientes a estudios previos (nivel .2), anteproyecto (nivel .3) y proyecto básico (nivel .4). Estos cálculos teóricos internos son finalmente evaluados y validados mediante la aplicación práctica del modelo en obras de edificación residencial, de las que se conocen sus costes reales de liquidación final de obra. Según va evolucionando y se incrementa el nivel de definición y desarrollo del proyecto, desde los estudios previos hasta el proyecto básico, el cálculo se va perfeccionando en su nivel de eficiencia y precisión de la estimación, según la metodología aplicada: [aproximaciones sucesivas en intervalos finitos], siendo la hipótesis básica como anteriormente se ha avanzado, lograr una desviación máxima de una décima parte en el cálculo estimativo del predimensionado del coste real de obra. El cálculo del coste de ejecución material de la obra, se desarrolla en base a parámetros cúbicos funcionales “tridimensionales” del espacio proyectado y parámetros métricos constructivos “bidimensionales” de la envolvente exterior de cubierta/fachada y de la huella del edificio sobre el terreno. Los costes funcionales y constructivos se ponderan en cada fase del proceso de cálculo con sus parámetros “temáticos/específicos” de gestión (Pg), proyecto (Pp) y ejecución (Pe) de la concreta obra presupuestada, para finalmente estimar el coste de construcción por contrata, como resultado de incrementar al coste de ejecución material el porcentaje correspondiente al parámetro temático/especifico de la obra proyectada. El modelo de predimensionado de costes de construcción Pcr.5n, será una herramienta de gran interés y utilidad en el ámbito profesional, para la estimación del coste correspondiente al Proyecto Básico previsto en el marco técnico y legal de aplicación. Según el Anejo I del Código Técnico de la Edificación (CTE), es de obligado cumplimiento que el proyecto básico contenga una “Valoración aproximada de la ejecución material de la obra proyectada por capítulos”, es decir , que el Proyecto Básico ha de contener al menos un “presupuesto aproximado”, por capítulos, oficios ó tecnologías. El referido cálculo aproximado del presupuesto en el Proyecto Básico, necesariamente se ha de realizar mediante la técnica del predimensionado de costes, dado que en esta fase del proyecto arquitectónico aún no se dispone de cálculos de estructura, planos de acondicionamiento e instalaciones, ni de la resolución constructiva de la envolvente, por cuanto no se han desarrollado las especificaciones propias del posterior proyecto de ejecución. Esta estimación aproximada del coste de la obra, es sencilla de calcular mediante la aplicación práctica del modelo desarrollado, y ello tanto para estudiantes como para profesionales del sector de la construcción. Como se contiene y justifica en el presente trabajo, la aplicación práctica del modelo para el cálculo de costes en las fases preliminares del proyecto, es rápida y certera, siendo de sencilla aplicación tanto en vivienda unifamiliar (aisladas y pareadas), como en viviendas colectivas (bloques y manzanas). También, el modelo es de aplicación en el ámbito de la valoración inmobiliaria, tasaciones, análisis de viabilidad económica de promociones inmobiliarias, estimación de costes de obras terminadas y en general, cuando no se dispone del proyecto de ejecución y sea preciso calcular los costes de construcción de las obras proyectadas. Además, el modelo puede ser de aplicación para el chequeo de presupuestos calculados por el método analítico tradicional (estado de mediciones pormenorizadas por sus precios unitarios y costes descompuestos), tanto en obras de iniciativa privada como en obras promovidas por las Administraciones Públicas. Por último, como líneas abiertas a futuras investigaciones, el modelo de “predimensionado costes de referencia 5 niveles de cálculo”, se podría adaptar y aplicar para otros usos y tipologías diferentes a la residencial, como edificios de equipamientos y dotaciones públicas, valoración de edificios históricos, obras de urbanización interior y exterior de parcela, proyectos de parques y jardines, etc….. Estas lineas de investigación suponen trabajos paralelos al aquí desarrollado, y que a modo de avance parcial se recogen en las comunicaciones presentadas en los Congresos internacionales Scieconf/Junio 2013, Rics‐Cobra/Septiembre 2013 y en el IV Congreso nacional de patología en la edificación‐Ucam/Abril 2014. ABSTRACT The aim of this research is to develop a fast, efficient and accurate calculation model to estimate the final costs of construction, during the preliminary stages of the architectural project. It is a tool to be used during the preliminary study process, drafting and basic project. It is not therefore necessary to have the exact, graphic definition of the project in order to be able to calculate the cost‐scaling. It is assumed that no deviation 10% higher than the final cost of the projected work will occur during the implementation. To that purpose five levels of cost estimation are formulated in the scaling model, from a lower to a higher conceptual and graphic definition of the architectural project. The five calculation levels are: two that take as point of reference the ”exogenous” values of house sales (initial development and basic development), and three based on calculation of endogenous costs (preliminary study, drafting and basic project). The first ”exogenous” estimation level (level.1) is calculated over the market valuation of real estate development and the proportion the cost of land has over the value of the houses. The fifth level of valuation, also an ”exogenous” one (level.5) is calculated from the contrast between the basic external market value, the construction costs, and the estimated development costs of the projected work. This contrast between the ”repercussions of construction costs” and the market value is an innovation regarding the existing cost‐scaling models, as a methodological process of extrinsic verification and validation, of the accuracy and validity of the estimations obtained from the implementation of the model, which is called Pcr.5n (reference cost‐scaling with .5calculation levels according to the stage of project definition/ architectural conceptualization) The other three levels of “endogenous” construction cost‐scaling are estimated from internal analytical calculations by project units and synthetic calculations by construction systems and functional spaces. This is performed during the initial stages of the project corresponding to preliminary study process (level.2), drafting (level.3) and basic project (level.4). These theoretical internal calculations are finally evaluated and validated via implementation of the model in residential buildings, whose real costs on final payment of the works are known. As the level of definition and development of the project evolves, from preliminary study to basic project, the calculation improves in its level of efficiency and estimation accuracy, following the applied methodology: [successive approximations at finite intervals]. The basic hypothesis as above has been made, achieving a maximum deviation of one tenth, in the estimated calculation of the true cost of predimensioning work. The cost calculation for material execution of the works is developed from functional “three‐dimensional” cubic parameters for the planned space and constructive “two dimensional” metric parameters for the surface that envelopes around the facade and the building’s footprint on the plot. The functional and building costs are analyzed at every stage of the process of calculation with “thematic/specific” parameters of management (Pg), project (Pp) and execution (Pe) of the estimated work in question, and finally the cost of contractual construction is estimated, as a consequence of increasing the cost of material execution with the percentage pertaining to the thematic/specific parameter of the projected work. The construction cost‐scaling Pcr.5n model will be a useful tool of great interest in the professional field to estimate the cost of the Basic Project as prescribed in the technical and legal framework of application. According to the appendix of the Technical Building Code (CTE), it is compulsory that the basic project contains an “approximate valuation of the material execution of the work, projected by chapters”, that is, that the basic project must contain at least an “approximate estimate” by chapter, trade or technology. This approximate estimate in the Basic Project is to be performed through the cost‐scaling technique, given that structural calculations, reconditioning plans and definitive contruction details of the envelope are still not available at this stage of the architectural project, insofar as specifications pertaining to the later project have not yet been developed. This approximate estimate of the cost of the works is easy to calculate through the implementation of the given model, both for students and professionals of the building sector. As explained and justified in this work, the implementation of the model for cost‐scaling during the preliminary stage is fast and accurate, as well as easy to apply both in single‐family houses (detached and semi‐detached) and collective housing (blocks). The model can also be applied in the field of the real‐estate valuation, official appraisal, analysis of the economic viability of real estate developments, estimate of the cost of finished projects and, generally, when an implementation project is not available and it is necessary to calculate the building costs of the projected works. The model can also be applied to check estimates calculated by the traditional analytical method (state of measurements broken down into price per unit cost details), both in private works and those promoted by Public Authorities. Finally, as potential lines for future research, the “five levels of calculation cost‐scaling model”, could be adapted and applied to purposes and typologies other than the residential one, such as service buildings and public facilities, valuation of historical buildings, interior and exterior development works, park and garden planning, etc… These lines of investigation are parallel to this one and, by way of a preview, can be found in the dissertations given in the International Congresses Scieconf/June 2013, Rics‐Cobra/September 2013 and in the IV Congress on building pathology ‐Ucam/April 2014.
Resumo:
El mercado de outsourcing ha estado creciendo en los últimos años y se prevé que lo siga haciendo en los próximos, pero este crecimiento ha estado limitado por el fracaso de muchos proyectos que, en algunos casos, han llevado a las organizaciones a asumir de nuevo esos servicios (insourcing). Estos fracasos se han debido en gran parte a los problemas con los proveedores: falta de experiencia, de capacidades para asumir los proyectos, dificultad en la comunicación,… A diferencia de lo que ocurre en otras disciplinas, no existe una metodología que ayude, tanto a los clientes como a los proveedores de servicios de outsourcing de TI, a gobernar y gestionar sus proyectos y conseguir los resultados buscados. En los últimos años han aparecido, al mismo tiempo que la expansión del outsourcing, algunos modelos y marcos de buenas prácticas para la gestión de los proyectos de outsourcing, pero generalmente sólo cubren algunos aspectos de la gestión. No se los puede considerar metodologías, porque no definen roles, responsabilidades ni entregables. Por lo general, son el resultado de la experiencia en la gestión de otros tipos de proyectos. Hay que considerar también que, excepto eSCM-SP, que es un modelo de buenas prácticas para mejorar la capacidad en la provisión de servicios, están todos orientados al cliente. El objetivo de esta tesis es, por un lado, demostrar la necesidad de contar con una metodología que guíe a los proveedores durante todo el ciclo de vida un proyecto de outsourcing y, por otro, proponer una metodología que contemple desde la fase inicial de la búsqueda de oportunidades de negocio, evaluación de las propuestas RFP, la decisión de hacer una oferta o no para la prestación de servicios, la participación en la due diligence, la firma del contrato, la transición y la entrega de servicios, hasta la finalización del contrato. La metodología se ha organizado en base a un ciclo de vida del outsourcing de cinco etapas, definiendo para cada una de ellas los roles que participan y las responsabilidades que deberán asumir, las actividades a realizar y los entregables que se deberán generar, y que servirán de elementos de control tanto para la gestión del proyecto como para la provisión del servicio. La validación de la metodología se ha realizado aplicándola en proyectos de provisión de servicios de TI de una mediana empresa española y comparando los resultados obtenidos con los conseguidos en proyectos anteriores. ABSTRACT The outsourcing market has been growing in recent years and it is expected to keep doing so in the coming years, but this growth has been limited by the failure of many projects that, in some cases, has led organizations to take back those services (insourcing). These failures have been due to a major degree to problems with providers: lack of experience and capacity to take on the projects, and difficulties of communication. Unlike what happens in other disciplines, there is no methodology for helping both customers and providers of outsourcing services. In recent years, some good practice frameworks have also appeared at the same time as the expansion of outsourcing. They are not methodologies because they have not defined any roles, responsibilities and deliverables. These frameworks aim to help organizations to be successful at managing and governing outsourcing projects. They are usually the result of their experience in managing other kinds of projects. In consequence, it is not appropriate to name them "methodologies" for managing outsourcing projects and much less "standards". It is also important to note that all existing good practice frameworks, except eSCM-SP, are client-oriented. The aim of this thesis is to state the need to propose a methodology that guides providers throughout the whole outsourcing life cycle and facilitates the provision of quality services and their management, and the proposal of a methodology in which the stages, activities, deliverables, roles and responsibilities are clearly defined. The proposed methodology cover all the stages of the outsourcing life cycle, from the early stage of searching for business opportunities, evaluation of the RFP proposals, the decision to bid or not to bid for the service provision, participation in the due diligence if necessary, the signing of the contract, the transition and delivery of service to the termination of the contract. For each activity, roles, responsibilities and deliverables have been defined. The validation of the methodology has been done by applying it in the provision of some outsourcing projects carried out by a Spanish IT medium company and comparing the results with those obtained in previous projects.