31 resultados para two-factor models
Resumo:
Kinépolis Madrid es uno de los mayores complejos cinematográficos del mundo contando incluso con records Guinness como el del complejo cinematográfico con mayor número de butacas del mundo. Está compuesto por 25 salas con capacidades entre 220 y 996 espectadores. Todas estas salas están equipadas con las últimas tecnologías de sonido e imagen y están adecuadamente acondicionadas para que las características acústicas de las mismas sean óptimas; no obstante, en el complejo no disponen de información sobre estas características. El presente PFG tratará de medir algunos de estos parámetros acústicos como la claridad, la definición o la inteligibilidad de la sala, pero se prestará especial atención al tiempo de reverberación de la misma ya que es uno de los parámetros más significativos a la hora de caracterizar acústicamente una sala. En concreto, se trabajará sobre la sala número 3, con capacidad para 327 espectadores, lo que la convierte en una de las salas de medio tamaño del recinto. Por otro lado, además de medir las características acústicas de la sala, se medirán las dimensiones de la misma para, posteriormente, construir dos modelos virtuales de la misma. Uno de ellos será un modelo detallado, mientras que el otro será más simple. A partir de estos modelos, se realizarán simulaciones para obtener los mismos parámetros medidos en la sala real. Una vez se obtengan los parámetros acústicos de ambas maneras, se compararán las medidas entre sí, estudiando si las diferencias entre los medidos y los simulados superan ciertos umbrales que estimarán si los modelos creados por ordenador realmente pueden representar a la sala real, o no. Por último, se obtendrán conclusiones para saber cuál de los dos modelos creados se acerca más a las medidas reales, cómo realizar las simulaciones, qué tipos de señal utilizar en las medidas y qué parámetros tener en cuenta, para así facilitar el trabajo en futuras experiencias ahorrando tiempo. ABSTRACT. Kinepolis Madrid is one of the largest cinema complexes in the world, having won even a Guinness as the cinema complex with more seats in the world. It consists of 25 cinemas whose capacities are between 220 and 996 people. All these cinemas are fully equipped with the latest audio and video technologies and are appropriately conditioned for the optimal acoustic characteristics; nevertheless, the resort does not have information on these features. This PFG’s aim, is trying to measure some acoustic parameters such as clarity, definition or intelligibility of the room, but paying special attention to the reverberation time since, it is one of the most significant acoustic parameters to characterize a room. In particular, the study will be developed at the cinema number 3 with capacity for 327 spectators, which turns it into one of the rooms of average size of the enclosure. In addition to measuring the acoustic characteristics of the room, the dimensions of it will be also measured, to then build two virtual models of it. One will be a detailed model, while the other one, will be much simpler. After that, simulations from those models will be performed in order to obtain the same data measured at the real room. Once the acoustic parameters had been obtained in both ways, there will be a comparison of all the measures together, studying whether differences between the real measured data and simulated ones exceed an estimated limit. This comparison, will give information about whether the computer models created can really represent the real room or not. Finally, conclusions to know which of the two created models is more appropriate to use, how to perform the simulations, what types of signal should be used in the measurements and which parameters to take into account in order to facilitate and saving time in future experiences, will be drawn.
Resumo:
Los accidentes del tráfico son un fenómeno social muy relevantes y una de las principales causas de mortalidad en los países desarrollados. Para entender este fenómeno complejo se aplican modelos econométricos sofisticados tanto en la literatura académica como por las administraciones públicas. Esta tesis está dedicada al análisis de modelos macroscópicos para los accidentes del tráfico en España. El objetivo de esta tesis se puede dividir en dos bloques: a. Obtener una mejor comprensión del fenómeno de accidentes de trafico mediante la aplicación y comparación de dos modelos macroscópicos utilizados frecuentemente en este área: DRAG y UCM, con la aplicación a los accidentes con implicación de furgonetas en España durante el período 2000-2009. Los análisis se llevaron a cabo con enfoque frecuencista y mediante los programas TRIO, SAS y TRAMO/SEATS. b. La aplicación de modelos y la selección de las variables más relevantes, son temas actuales de investigación y en esta tesis se ha desarrollado y aplicado una metodología que pretende mejorar, mediante herramientas teóricas y prácticas, el entendimiento de selección y comparación de los modelos macroscópicos. Se han desarrollado metodologías tanto para selección como para comparación de modelos. La metodología de selección de modelos se ha aplicado a los accidentes mortales ocurridos en la red viaria en el período 2000-2011, y la propuesta metodológica de comparación de modelos macroscópicos se ha aplicado a la frecuencia y la severidad de los accidentes con implicación de furgonetas en el período 2000-2009. Como resultado de los desarrollos anteriores se resaltan las siguientes contribuciones: a. Profundización de los modelos a través de interpretación de las variables respuesta y poder de predicción de los modelos. El conocimiento sobre el comportamiento de los accidentes con implicación de furgonetas se ha ampliado en este proceso. bl. Desarrollo de una metodología para selección de variables relevantes para la explicación de la ocurrencia de accidentes de tráfico. Teniendo en cuenta los resultados de a) la propuesta metodológica se basa en los modelos DRAG, cuyos parámetros se han estimado con enfoque bayesiano y se han aplicado a los datos de accidentes mortales entre los años 2000-2011 en España. Esta metodología novedosa y original se ha comparado con modelos de regresión dinámica (DR), que son los modelos más comunes para el trabajo con procesos estocásticos. Los resultados son comparables, y con la nueva propuesta se realiza una aportación metodológica que optimiza el proceso de selección de modelos, con escaso coste computacional. b2. En la tesis se ha diseñado una metodología de comparación teórica entre los modelos competidores mediante la aplicación conjunta de simulación Monte Cario, diseño de experimentos y análisis de la varianza ANOVA. Los modelos competidores tienen diferentes estructuras, que afectan a la estimación de efectos de las variables explicativas. Teniendo en cuenta el estudio desarrollado en bl) este desarrollo tiene el propósito de determinar como interpretar la componente de tendencia estocástica que un modelo UCM modela explícitamente, a través de un modelo DRAG, que no tiene un método específico para modelar este elemento. Los resultados de este estudio son importantes para ver si la serie necesita ser diferenciada antes de modelar. b3. Se han desarrollado nuevos algoritmos para realizar los ejercicios metodológicos, implementados en diferentes programas como R, WinBUGS, y MATLAB. El cumplimiento de los objetivos de la tesis a través de los desarrollos antes enunciados se remarcan en las siguientes conclusiones: 1. El fenómeno de accidentes del tráfico se ha analizado mediante dos modelos macroscópicos. Los efectos de los factores de influencia son diferentes dependiendo de la metodología aplicada. Los resultados de predicción son similares aunque con ligera superioridad de la metodología DRAG. 2. La metodología para selección de variables y modelos proporciona resultados prácticos en cuanto a la explicación de los accidentes de tráfico. La predicción y la interpretación también se han mejorado mediante esta nueva metodología. 3. Se ha implementado una metodología para profundizar en el conocimiento de la relación entre las estimaciones de los efectos de dos modelos competidores como DRAG y UCM. Un aspecto muy importante en este tema es la interpretación de la tendencia mediante dos modelos diferentes de la que se ha obtenido información muy útil para los investigadores en el campo del modelado. Los resultados han proporcionado una ampliación satisfactoria del conocimiento en torno al proceso de modelado y comprensión de los accidentes con implicación de furgonetas y accidentes mortales totales en España. ABSTRACT Road accidents are a very relevant social phenomenon and one of the main causes of death in industrialized countries. Sophisticated econometric models are applied in academic work and by the administrations for a better understanding of this very complex phenomenon. This thesis is thus devoted to the analysis of macro models for road accidents with application to the Spanish case. The objectives of the thesis may be divided in two blocks: a. To achieve a better understanding of the road accident phenomenon by means of the application and comparison of two of the most frequently used macro modelings: DRAG (demand for road use, accidents and their gravity) and UCM (unobserved components model); the application was made to van involved accident data in Spain in the period 2000-2009. The analysis has been carried out within the frequentist framework and using available state of the art software, TRIO, SAS and TRAMO/SEATS. b. Concern on the application of the models and on the relevant input variables to be included in the model has driven the research to try to improve, by theoretical and practical means, the understanding on methodological choice and model selection procedures. The theoretical developments have been applied to fatal accidents during the period 2000-2011 and van-involved road accidents in 2000-2009. This has resulted in the following contributions: a. Insight on the models has been gained through interpretation of the effect of the input variables on the response and prediction accuracy of both models. The behavior of van-involved road accidents has been explained during this process. b1. Development of an input variable selection procedure, which is crucial for an efficient choice of the inputs. Following the results of a) the procedure uses the DRAG-like model. The estimation is carried out within the Bayesian framework. The procedure has been applied for the total road accident data in Spain in the period 2000-2011. The results of the model selection procedure are compared and validated through a dynamic regression model given that the original data has a stochastic trend. b2. A methodology for theoretical comparison between the two models through Monte Carlo simulation, computer experiment design and ANOVA. The models have a different structure and this affects the estimation of the effects of the input variables. The comparison is thus carried out in terms of the effect of the input variables on the response, which is in general different, and should be related. Considering the results of the study carried out in b1) this study tries to find out how a stochastic time trend will be captured in DRAG model, since there is no specific trend component in DRAG. Given the results of b1) the findings of this study are crucial in order to see if the estimation of data with stochastic component through DRAG will be valid or whether the data need a certain adjustment (typically differencing) prior to the estimation. The model comparison methodology was applied to the UCM and DRAG models, considering that, as mentioned above, the UCM has a specific trend term while DRAG does not. b3. New algorithms were developed for carrying out the methodological exercises. For this purpose different softwares, R, WinBUGs and MATLAB were used. These objectives and contributions have been resulted in the following findings: 1. The road accident phenomenon has been analyzed by means of two macro models: The effects of the influential input variables may be estimated through the models, but it has been observed that the estimates vary from one model to the other, although prediction accuracy is similar, with a slight superiority of the DRAG methodology. 2. The variable selection methodology provides very practical results, as far as the explanation of road accidents is concerned. Prediction accuracy and interpretability have been improved by means of a more efficient input variable and model selection procedure. 3. Insight has been gained on the relationship between the estimates of the effects using the two models. A very relevant issue here is the role of trend in both models, relevant recommendations for the analyst have resulted from here. The results have provided a very satisfactory insight into both modeling aspects and the understanding of both van-involved and total fatal accidents behavior in Spain.
Resumo:
En la Web 2.0, donde usuarios finales sin grandes conocimientos de programación pueden interactuar y crear aplicaciones web utilizando componentes publicados en Internet, ofrecidos por una gran variedad de proveedores de servicio. La selección de estos componentes requiere de un análisis exhaustivo por parte de los usuarios sobre las propiedades de estos componentes en referencia a su calidad. En este proyecto, se presentan dos modelos de calidad según una estructura jerárquica, uno para componentes web como elementos autónomos y otro para componentes utilizados en aplicaciones de mashup, basado en un análisis de la emergente Web 2.0. Además, se define una herramienta de medición y anotación de calidad para los distintos niveles de los modelos. Estas herramientas pretenden ser un útil instrumento para los desarrolladores y usuarios de componentes y mashups.---ABSTRACT---In the Web 2.0, where end users without a technical programming background can interact and develop web applications leveraging web components published on the Internet, offered by a great diversity of service providers. This component selection requires an exhaustive analysis by these end users based on the requirements of these components related to their quality. In this work, two quality models are presented according to a hierarchical structure, one for web components as independent elements and another one for web components as parts of web mashup applications, based on an analysis of the emerging Web 2.0. In addition, a measuring and write down quality framework is defined to weigh the quality of all the levels of the models. These tools intend to provide a useful instrument to components and mashup developers and end users.
Resumo:
La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.
Resumo:
Two mathematical models are used to simulate pollution in the Bay of Santander. The first is the hydrodynamic model that provides the velocity field and height of the water. The second gives the pollutant concentration field as a resultant. Both models are formulated in two-dimensional equations. Linear triangular finite elements are used in the Galerkin procedure for spatial discretization. A finite difference scheme is used for the time integration. At each time step the calculated results of the first model are input to the second model as field data. The efficiency and accuracy of the models are tested by their application to a simple illustrative example. Finally a case study in simulation of pollution evolution in the Bay of Santander is presented
Resumo:
Esta tesis doctoral se ha centrado en el estudio de las cargas aerodinámicas no estacionario en romos cuerpos o no aerodinámicos (bluff bodies). Con este objetivo se han identificado y analizado los siguientes puntos: -Caracterización del flujo medido con diferentes tipos de tubos de Pitot y anemómetro de hilo caliente en condiciones de flujo no estacionario inestable generado por un túnel aerodinamico de ráfagas. -Diseño e integración de los montajes experimentales requeridos para medir las cargas de viento internas y externas que actúan sobre los cuerpos romos en condiciones de flujo de viento con ráfagas. -Implementación de modelos matemáticos semi-empíricos basados en flujo potencial y las teorías fenomenológicas pertinentes para simular los resultados experimentales. -En diversan condiciones de flujo con ráfagas, la identificación y el análisis de la influencia de los parámetros obtenida a partir de los modelos teóricos desarrollados. -Se proponen estimaciones empíricas para averiguar los valores adecuados de los parámetros que influyente, mediante el ajuste de los resultados experimentales y los predichos teóricamente. Los montajes experimentales se has reakizado en un tunel aerodinamico de circuito abierto, provisto de baja velocidad, cámara de ensayes cerrada, un nuevo concepto de mecanismo generador de ráfaga sinusoidal, diseñado y construido en el Instituto de Microgravedad "Ignacio Da Riva" de la Universidad Politécnica de Madrid, (IDR / UPM). La principal característica de este túnel aerodynamico es la capacidad de generar un flujo con un perfil de velocidad uniforme y una fluctuación sinusoidal en el tiempo. Se han realizado pruebas experimentales para estudiar el efecto de los flujos no estacionarios en cuerpos romos situados en el suelo. Se han propuesto dos modelos teóricos para diterminar las cargas de presión externas e internas respectivamente. Con el fin de satisfacer la necesidad de la crea ráfagas de viento sinusoidales para comprobar las predicciones de los modelos teóricos, se han obtenido velocidades de hasta 30 m/s y frecuencias ráfaga de hasta 10 Hz. La sección de la cámara de ensayos es de 0,39 m x 0,54 m, dimensiónes adecuadas para llevar a cabo experimentos con modelos de ensayos. Se muestra que en la gama de parámetros explorados los resultados experimentales están en buen acuerdo con las predicciones de los modelos teóricos. Se han realizado pruebas experimentales para estudiar los efectos del flujo no estacionario, las cuales pueden ayudar a aclarar el fenómeno de las cargas de presión externa sobre los cuerpos romos sometidos a ráfagas de viento: y tambien para determinan las cargas de presión interna, que dependen del tamaño de los orificios de ventilación de la construcción. Por último, se ha analizado la contribución de los términos provenientes del flujo no estacionario, y se han caracterizado o los saltos de presión debido a la pérdida no estacionario de presión a través de los orificios de ventilación. ABSTRACT This Doctoral dissertation has been focused to study the unsteady aerodynamic loads on bluff bodies. To this aim the following points have been identified and analyzed: -Characterization of the flow measured with different types of Pitot tubes and hot wire anemometer at unsteady flow conditions generated by a gust wind tunnel. -Design and integrating of the experimental setups required to measure the internal and external wind loads acting on bluff bodies at gusty wind flow conditions. -Implementation of semi-empirical mathematical models based on potential flow and relevant phenomenological theories to simulate the experimental results.-At various gusty flow conditions, extracting and analyzing the influence of parameters obtained from the developed theoretical models. -Empirical estimations are proposed to find out suitable values of the influencing parameters, by fitting the experimental and theoretically predicted results. The experimental setups are performed in an open circuit, closed test section, low speed wind tunnel, with a new sinusoidal gust generator mechanism concept, designed and built at the Instituto de Microgravedad “Ignacio Da Riva” of the Universidad Politécnica de Madrid, (IDR/UPM). The main characteristic of this wind tunnel is the ability to generate a flow with a uniform velocity profile and a sinusoidal time fluctuation of the speed. Experimental tests have been devoted to study the effect of unsteady flows on bluff bodies lying on the ground. Two theoretical models have been proposed to measure the external and internal pressure loads respectively. In order to meet the need of creating sinusoidal wind gusts to check the theoretical model predictions, the gust wind tunnel maximum flow speed and, gust frequency in the test section have been limited to 30 m/s and 10 Hz, respectively have been obtained. The test section is 0.39 m × 0.54 m, which is suitable to perform experiments with testing models. It is shown that, in the range of parameters explored, the experimental results are in good agreement with the theoretical model predictions. Experimental tests have been performed to study the unsteady flow effects, which can help in clarifying the phenomenon of the external pressure loads on bluff bodies under gusty winds: and also to study internal pressure loads, which depend on the size of the venting holes of the building. Finally, the contribution of the unsteady flow terms in the theoretical model has been analyzed, and the pressure jumps due to the unsteady pressure losses through the venting holes have been characterized.
Resumo:
Hybrid magnetic arrays embedded in superconducting films are ideal systems to study the competition between different physical (such as the coherence length) and structural length scales such as are available in artificially produced structures. This interplay leads to oscillation in many magnetically dependent superconducting properties such as the critical currents, resistivity and magnetization. These effects are generally analyzed using two distinct models based on vortex pinning or wire network. In this work, we show that for magnetic dot arrays, as opposed to antidot (i.e. holes) arrays, vortex pinning is the main mechanism for field induced oscillations in resistance R(H), critical current Ic(H), magnetization M(H) and ac-susceptibility χ ac(H) in a broad temperature range. Due to the coherence length divergence at Tc, a crossover to wire network behaviour is experimentally found. While pinning occurs in a wide temperature range up to Tc, wire network behaviour is only present in a very narrow temperature window close to Tc. In this temperature interval, contributions from both mechanisms are operational but can be experimentally distinguished.
Resumo:
En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.
Procedimiento multicriterio-multiobjetivo de planificación energética a comunidades rurales aisladas
Resumo:
La toma de decisiones en el sector energético se torna compleja frente a las disímiles opciones y objetivos a cumplir. Para minimizar esta complejidad, se han venido desarrollando una gama amplia de métodos de apoyo a la toma de decisiones en proyectos energéticos. En la última década, las energización de comunidades rurales aisladas ha venido siendo prioridad de muchos gobiernos para mitigar las migraciones del campo para la ciudad. Para la toma de decisiones en los proyectos energéticos de comunidades rurales aisladas se necesitan proyectar la influencia que estos tendrás sobre los costes económicos, medioambientales y sociales. Es por esta razón que el presente trabajo tuvo como objetivo diseñar un modelo original denominado Generación Energética Autóctona Y Limpia (GEAYL) aplicado a una comunidad rural aislada de la provincia de Granma en Cuba. Este modelo parte dos modelos que le preceden el PAMER y el SEMA. El modelo GEAYL constituye un procedimiento multicriterio-multiobjetivo de apoyo a la planificación energética para este contexto. Se plantearon cinco funciones objetivos: F1, para la minimización de los costes energéticos; F2 para la minimización de las emisiones de CO2, F3, para la minimización de las emisiones de NOx; F4, para la minimización de las emisiones de SOx (cuyos coeficientes fueron obtenidos a través de la literatura especializada) y F5, para la maximización de la Aceptación Social de la Energía. La función F5 y la manera de obtener sus coeficientes constituye la novedad del presente trabajo. Estos coeficientes se determinaron aplicando el método AHP (Proceso Analítico Jerárquico) con los datos de partidas derivados de una encuesta a los usuarios finales de la energía y a expertos. Para determinar el suministro óptimo de energía se emplearon varios métodos: la suma ponderada, el producto ponderado, las distancias de Manhattan L1, la distancia Euclidea L2 y la distancia L3. Para estas métricas se aplicaron distintos vectores de pesos para determinar las distintas estructuras de preferencias de los decisores. Finalmente, se concluyó que tener en consideración a Aceptación Social de la Energía como una función del modelo influye en el suministro de energía de cada alternativa energética. ABSTRACT Energy planning decision making is a complex task due to the multiple options to follow and objectives to meet. In order to minimize this complexity, a wide variety of methods and supporting tools have been designed. Over the last decade, rural energization has been a priority for many governments, aiming to alleviate rural to urban migration. Rural energy planning decision making must rely on financial, environmental and social costs. The purpose of this work is to define an original energy planning model named Clean and Native Energy Generation (Generación Energética Autóctona Y Limpia, GEAYL), and carry out a case study on Granma Province, Cuba. This model is based on two previous models: PAMER & SEMA. GEAYL is a multiobjective-multicriteria energy planning model, which includes five functions to be optimized: F1, to minimize financial costs; F2, to minimize CO2 emissions; F3, to minimize NOx emissions; F4, to minimize SOx emissions; and F5, to maximize energy Social Acceptability. The coefficients corresponding to the first four functions have been obtained through specialized papers and official data, and the ones belonging to F5 through an Analytic Hierarchy Process (AHP), built as per a statistical enquiry carried out on energy users and experts. F5 and the AHP application are considered to be the novelty of this model. In order to establish the optimal energy supply, several methods have been applied: weighted sum, weighted product, Manhattan distance L1, Euclidean distance L2 and L3. Several weight vectors have been applied to the mentioned distances in order to conclude the decision makers potential preference structure. Among the conclusions of this work, it must be noted that function F5, Social Acceptability, has a clear influence on every energy supply alternative.
Resumo:
Actualmente el sector privado posee un papel relevante en la provisión y gestión de infraestructuras de transporte en los países de ingreso medio‐bajo, principalmente a través de los proyectos de participación público‐privada (PPPs). Muchos países han impulsado este tipo de proyectos con el fin de hacer frente a la gran demanda de infraestructuras de transporte existente, debido a la escasez de recursos públicos y a la falta de eficiencia en la provisión de los servicios públicos. Como resultado, las PPPs han experimentado un crecimiento importante en las últimas dos décadas a nivel mundial. A pesar de esta tendencia creciente, muchos países no han sido capaces de atraer la participación del sector privado para la provisión de sus infraestructuras o no han logrado el nivel de participación privada que habrían requerido para alcanzar sus objetivos. Según numerosos autores, el desarrollo y el éxito de los proyectos PPP de infraestructuras de transporte de cualquier país está condicionado por una diversidad de factores, siendo uno de ellos la calidad de su entorno institucional. La presente tesis tiene como objetivo principal analizar la influencia del entorno institucional en el volumen de inversión en proyectos de participación público‐privada de infraestructuras de transporte en los países de ingreso medio‐bajo. Para acometer dicho objetivo se ha realizado un análisis empírico de 81 países distribuidos en seis regiones del mundo, durante el periodo 1996‐2013. En el análisis se han desarrollado dos modelos empíricos aplicando principalmente dos metodologías: el contraste de hipótesis y los modelos de datos de panel Tobit. El desarrollo de estos modelos ha permitido analizar de una forma exhaustiva el tema de estudio. Los resultados obtenidos aportan evidencia de que la calidad del entorno institucional posee una influencia significativa en el volumen de inversión en los proyectos PPP de transporte. En general, en esta tesis se muestran evidencias empíricas de que el sector privado ha tendido a invertir en mayor medida en países con entornos institucionales fuertes, es decir, en aquellos países en los que ha existido un mayor nivel de Estado de derecho, estabilidad política y regulatoria, efectividad del gobierno, así como un mayor control de la corrupción. Además, aquellos países donde se ha registrado una mejora en el nivel de su calidad institucional también han experimentado un incremento en el volumen de inversión en PPP de transporte. The private sector has an important role in the provision and management of transport infrastructure in countries of medium‐low income, primarily through projects of public‐private partnerships (PPPs). Many countries have developed PPP projects to meet the high demand of transport infrastructure, due to the scarcity of public resources and the lack of efficiency in the provision of public services. As a result, PPPs have experienced a significant growth, worldwide, in the past two decades. Despite this growing trend, many countries have not been able to attract private sector participation in the provision of infrastructure or have not accomplished the level of private participation that would have required to achieve its objectives. According to various authors, the development of PPP projects for transport infrastructure is determined by a number of factors, one of them being the quality of the institutional environment. The main objective of this dissertation is to analyze the influence of the institutional environment on the volume of investment, in projects of public‐private partnerships for transport infrastructure in countries of medium‐low income. In order to meet this objective, we conducted an empirical analysis of 81 countries, in six regions of the world, during the period of 1996‐2013. The analysis used two empirical models, implementing different methodologies and various statistical techniques: hypothesis testing, and Tobit model using panel data. The development of these models allowed to carry out a more comprehensive analysis. The results show that the quality of the institutional environment has a significant influence on the volume of investment in PPP projects of transport. Overall, this dissertation shows that the private sector tends to invest more in countries with stronger institutional environments, i.e. countries where there has been a higher level of Rule of Law, political and regulatory stability, and an effective control of corruption. In addition, those that have improved the level of institutional quality have also experienced an increase in the volume of investment in PPP of transport.
Resumo:
El objetivo definitivo de esta investigación es contribuir con la profundización del conocimiento en las tecnologías de remediación, específicamente las térmicas, debido a que la contaminación de suelos es motivo de preocupación por ser uno de los graves impactos ambientales que origina el hombre con sus actividades, especialmente las industriales, afectando a la salud de los seres humanos, y el medio ambiente, representando elevados costes de saneamiento y en ocasiones problemas graves de salud de las comunidades aledañas. Se establecen tres fases de investigación. En la primera se diseña el sistema de termodesorción a escala piloto, se desarrolla las corridas experimentales, la segunda con corridas en laboratorio para investigar sobre los parámetros que intervienen en el proyecto. Se hacen las corridas respectivas para determinar la eficacia del sistema, y la tercera fase que consiste en comparar los modelos teóricos de Hartley, con los de Hartley Graham –Bryce y el de Hamaker para determinar su aproximación con los resultados reales. Apoyado en investigaciones anteriores, se diseñó y construyó un sistema de desorción térmica, el cual consiste en un horno tipo caja con 4 calentadores (resistencias), y una campana con un filtro para evitar la contaminación atmosférica, así mismo, se diseñó un sistema de control que permitió hacer las corridas con 1/3 de la potencia, con una relación de encendido apagado 3:1 respectivamente. Para validar los resultados obtenidos en el estudio matemático, se compararon dos modelos con la finalidad cuál de ellos se aproxima más a la realidad, se tomaron los ensayos con sus tiempos de operación a las temperaturas y se trabajó a distintas bandas de temperaturas para verificar la fiabilidad del proceso matemático. La temperatura es un variable importante en los procesos de desorción, como los son también la humedad del suelo, pues esta va influir directamente en el tiempo de remediación, por lo que es importante tomarla en cuenta. De igual forma el tipo de suelo va influir en los resultados, siendo las arenas más aptas para este tipo de remediación. Los resultados de la modelización son presentados para temperaturas constantes, el cual difiere de la realidad, pues el proceso de calentamiento es lento y va en accenso dependiendo del contenido de humedad y de las propiedades del suelo. La experimentación realizada concluye con buenos resultados de la aplicación de sistemas de desorción de acuerdo a las variables de Panamá. Con relación al grado de cumplimiento respecto a las normativas actuales relacionadas a los límites máximos permitidos. Los resultados garantizan las posibilidades del proceso de remediación térmica de suelos contaminados con combustibles en rango de diésel, garantizando niveles aceptables de limpieza en un tiempo menor a otras metodologías no destructivas pudieran tomar. ABSTRACT The ultimate goal of this investigation is to enhance the pool of knowledge related to remediation technologies, specifically thermal desorption. The motivation for this study is based on concerns due to pollution of land as one of the most serious environmental impacts caused by anthropogenic effects, specially industrial activities, affecting human health and the environment in general, which represents high reclamation costs, and in some cases, serious health issues in nearby communities. Three phases have been established for this study. The first phase involves the design of a thermal desorption system as a pilot experiment, and associated tests. The second phase consists of laboratory testing to investigate the parameters that affect the investigation, as well as to determine the efficacy of the system. The third phase covers the comparison of theorical models as proposed by Hartley, Hartley Graham – Bryce, and Hamaker, as well as the evaluation of these models versus the laboratory results. Supported by previous researches, the thermal desorption system was designed and installed as a “box” type oven with four heaters (resistances) and one absorption hood with a filter to avoid atmospheric contamination. In the same way, a control system was designed allowing testing with 1/3 of the power, with an on/off rate of 3:1 respectively. In order to validate the results, two mathematical models were compared to identify which model is closer to the experimental results; test results were documented with respective durations and temperatures; and experiments were executed using different ranges of temperature to validate the consistency of the mathematical process. Temperature is an important variable that should be considered for the desorption processes, as well as the humidity content within the soil, that has direct influence over the required duration to achieve remediation. In the same manner, the type of soil also influences the results, where sands are more efficient for this type of remediation process. The results from this experiment are according to constant temperatures, which is not a complete representation of the reality, as the heating process is slow and the temperature gradually increases according to the humidity content and other properties of the soil. The experiment shows good results for the application of thermal desorption systems according to the variables in Panama, as well as the level of compliance required to fulfill current regulations and mandatory maximum limits. The results guarantee the possibility of soil thermo-remediation as a resource to clean sites that have been polluted with diesel-like combustibles, allowing acceptable levels in a period of time that is lower than with other non-destructive remediation technics.
Resumo:
La energía transportada por el oleaje a través de los océanos (energía undimotriz) se enmarca dentro de las denominadas energías oceánicas. Su aprovechamiento para generar energía eléctrica (o ser aprovechada de alguna otra forma) es una idea reflejada ya hace más de dos siglos en una patente (1799). Desde entonces, y con especial intensidad desde los años 70, ha venido despertando el interés de instituciones ligadas al I+D+i y empresas del sector energético y tecnológico, debido principalmente a la magnitud del recurso disponible. Actualmente se puede considerar al sector en un estado precomercial, con un amplio rango de dispositivos y tecnologías en diferente grado de desarrollo en los que ninguno destaca sobre los otros (ni ha demostrado su viabilidad económica), y sin que se aprecie una tendencia a converger un único dispositivo (o un número reducido de ellos). El recurso energético que se está tratando de aprovechar, pese a compartir la característica de no-controlabilidad con otras fuentes de energía renovable como la eólica o la solar, presenta una variabilidad adicional. De esta manera, diferentes localizaciones, pese a poder presentar recursos de contenido energético similar, presentan oleajes de características muy diferentes en términos de alturas y periodos de oleaje, y en la dispersión estadística de estos valores. Esta variabilidad en el oleaje hace que cobre especial relevancia la adecuación de los dispositivos de aprovechamiento de energía undimotriz (WEC: Wave Energy Converter) a su localización, de cara a mejorar su viabilidad económica. Parece razonable suponer que, en un futuro, el proceso de diseño de un parque de generación undimotriz implique un rediseño (en base a una tecnología conocida) para cada proyecto de implantación en una nueva localización. El objetivo de esta tesis es plantear un procedimiento de dimensionado de una tecnología de aprovechamiento de la energía undimotriz concreta: los absorbedores puntuales. Dicha metodología de diseño se plantea como un problema de optimización matemático, el cual se resuelve utilizando un algoritmo de optimización bioinspirado: evolución diferencial. Este planteamiento permite automatizar la fase previa de dimensionado implementando la metodología en un código de programación. El proceso de diseño de un WEC es un problema de ingería complejo, por lo que no considera factible el planteamiento de un diseño completo mediante un único procedimiento de optimización matemático. En vez de eso, se platea el proceso de diseño en diferentes etapas, de manera que la metodología desarrollada en esta tesis se utilice para obtener las dimensiones básicas de una solución de referencia de WEC, la cual será utilizada como punto de partida para continuar con las etapas posteriores del proceso de diseño. La metodología de dimensionado previo presentada en esta tesis parte de unas condiciones de contorno de diseño definidas previamente, tales como: localización, características del sistema de generación de energía eléctrica (PTO: Power Take-Off), estrategia de extracción de energía eléctrica y concepto concreto de WEC). Utilizando un algoritmo de evolución diferencial multi-objetivo se obtiene un conjunto de soluciones factibles (de acuerdo con una ciertas restricciones técnicas y dimensionales) y óptimas (de acuerdo con una serie de funciones objetivo de pseudo-coste y pseudo-beneficio). Dicho conjunto de soluciones o dimensiones de WEC es utilizado como caso de referencia en las posteriores etapas de diseño. En el documento de la tesis se presentan dos versiones de dicha metodología con dos modelos diferentes de evaluación de las soluciones candidatas. Por un lado, se presenta un modelo en el dominio de la frecuencia que presenta importantes simplificaciones en cuanto al tratamiento del recurso del oleaje. Este procedimiento presenta una menor carga computacional pero una mayor incertidumbre en los resultados, la cual puede traducirse en trabajo adicional en las etapas posteriores del proceso de diseño. Sin embargo, el uso de esta metodología resulta conveniente para realizar análisis paramétricos previos de las condiciones de contorno, tales como la localización seleccionada. Por otro lado, la segunda metodología propuesta utiliza modelos en el domino estocástico, lo que aumenta la carga computacional, pero permite obtener resultados con menos incertidumbre e información estadística muy útil para el proceso de diseño. Por este motivo, esta metodología es más adecuada para su uso en un proceso de dimensionado completo de un WEC. La metodología desarrollada durante la tesis ha sido utilizada en un proyecto industrial de evaluación energética preliminar de una planta de energía undimotriz. En dicho proceso de evaluación, el método de dimensionado previo fue utilizado en una primera etapa, de cara a obtener un conjunto de soluciones factibles de acuerdo con una serie de restricciones técnicas básicas. La selección y refinamiento de la geometría de la solución geométrica de WEC propuesta fue realizada a posteriori (por otros participantes del proyecto) utilizando un modelo detallado en el dominio del tiempo y un modelo de evaluación económica del dispositivo. El uso de esta metodología puede ayudar a reducir las iteraciones manuales y a mejorar los resultados obtenidos en estas últimas etapas del proyecto. ABSTRACT The energy transported by ocean waves (wave energy) is framed within the so-called oceanic energies. Its use to generate electric energy (or desalinate ocean water, etc.) is an idea expressed first time in a patent two centuries ago (1799). Ever since, but specially since the 1970’s, this energy has become interesting for R&D institutions and companies related with the technological and energetic sectors mainly because of the magnitude of available energy. Nowadays the development of this technology can be considered to be in a pre-commercial stage, with a wide range of devices and technologies developed to different degrees but with none standing out nor economically viable. Nor do these technologies seem ready to converge to a single device (or a reduce number of devices). The energy resource to be exploited shares its non-controllability with other renewable energy sources such as wind and solar. However, wave energy presents an additional short-term variability due to its oscillatory nature. Thus, different locations may show waves with similar energy content but different characteristics such as wave height or wave period. This variability in ocean waves makes it very important that the devices for harnessing wave energy (WEC: Wave Energy Converter) fit closely to the characteristics of their location in order to improve their economic viability. It seems reasonable to assume that, in the future, the process of designing a wave power plant will involve a re-design (based on a well-known technology) for each implementation project in any new location. The objective of this PhD thesis is to propose a dimensioning method for a specific wave-energy-harnessing technology: point absorbers. This design methodology is presented as a mathematical optimization problem solved by using an optimization bio-inspired algorithm: differential evolution. This approach allows automating the preliminary dimensioning stage by implementing the methodology in programmed code. The design process of a WEC is a complex engineering problem, so the complete design is not feasible using a single mathematical optimization procedure. Instead, the design process is proposed in different stages, so the methodology developed in this thesis is used for the basic dimensions of a reference solution of the WEC, which would be used as a starting point for the later stages of the design process. The preliminary dimensioning methodology presented in this thesis starts from some previously defined boundary conditions such as: location, power take-off (PTO) characteristic, strategy of energy extraction and specific WEC technology. Using a differential multi-objective evolutionary algorithm produces a set of feasible solutions (according to certain technical and dimensional constraints) and optimal solutions (according to a set of pseudo-cost and pseudo-benefit objective functions). This set of solutions or WEC dimensions are used as a reference case in subsequent stages of design. In the document of this thesis, two versions of this methodology with two different models of evaluation of candidate solutions are presented. On the one hand, a model in the frequency domain that has significant simplifications in the treatment of the wave resource is presented. This method implies a lower computational load but increased uncertainty in the results, which may lead to additional work in the later stages of the design process. However, use of this methodology is useful in order to perform previous parametric analysis of boundary conditions such as the selected location. On the other hand, the second method uses stochastic models, increasing the computational load, but providing results with smaller uncertainty and very useful statistical information for the design process. Therefore, this method is more suitable to be used in a detail design process for full dimensioning of the WEC. The methodology developed throughout the thesis has been used in an industrial project for preliminary energetic assessment of a wave energy power plant. In this assessment process, the method of previous dimensioning was used in the first stage, in order to obtain a set of feasible solutions according to a set of basic technical constraints. The geometry of the WEC was refined and selected subsequently (by other project participants) using a detailed model in the time domain and a model of economic evaluation of the device. Using this methodology can help to reduce the number of design iterations and to improve the results obtained in the last stages of the project.
Resumo:
El minuto final de un partido ajustado de baloncesto es un momento crítico que está sujeto a multitud de factores que influyen en su desarrollo. Así, el porcentaje de acierto en los tiros libres durante ese periodo de tiempo va a determinar, en muchas ocasiones, el resultado final del partido. La disminución de rendimiento (drop) en esta faceta de juego en condiciones de presión, puede estar relacionada con múltiples variables propias del contexto deportivo estudiado, como por ejemplo: los segundos restantes de posesión, la situación en el marcador (ir ganando, empatando o perdiendo), la localización del partido (jugar en casa o fuera), la fase de competición (fase regular o eliminatorias) o el nivel del equipo (mejores/peores equipos). Además, las características del jugador que realiza los lanzamientos tienen una gran importancia respecto a su edad y años de experiencia para afrontar los momentos críticos, así como el puesto de juego que ocupa en el equipo. En este sentido, la combinación de factores del contexto y del jugador, permiten interactuar en el rendimiento del lanzador en los momentos finales de partido durante sus lanzamientos de tiro libre. El presente trabajo de tesis doctoral tiene como objetivo encontrar aquellas variables más relacionadas con la disminución de rendimiento del jugador en los tiros libres durante el último minuto de juego, y la última serie de tiros libres en los partidos ajustados de baloncesto. Para alcanzar el objetivo del estudio se analizaron 124 partidos ajustados (diferencias iguales o inferiores a 2 puntos) de todas las competiciones (fase regular, playoff y copa del Rey) de la liga ACB durante las temporadas 2011-2012 a 2014-2015. Para el registro de variables se analizó el porcentaje de acierto en los tiros libres del lanzador en la liga regular, partido completo, último minuto y última serie. De este modo se trató de analizar qué variables del contexto y del jugador permitían explicar el rendimiento en los tiros libres durante el último minuto, y la última serie de tiros libres del partido. Por otro lado, se trató de conocer el grado de asociación entre el descenso del rendimiento (drop) en los momentos finales de partido, y las variables estudiadas del jugador: puesto de juego, edad, y años de experiencia profesional; mientras que las variables situacionales consideradas fueron: fase de competición, localización, clasificación, tiempo restante, y diferencia parcial en el marcador. Para el análisis de los datos se realizaron dos modelos estadísticos: 1º) un modelo de regresión lineal múltiple para conocer el efecto de las variables independientes en el porcentaje de aciertos del lanzador en el último minuto, y en la última serie de tiros libres del partido; y 2º) un análisis de regresión logística binomial para analizar la relación existente entre la probabilidad de tener un drop (disminución del rendimiento) y las características del lanzador, y las variables situacionales. Los resultados del modelo de regresión lineal múltiple mostraron efectos negativos significativos en el porcentaje de acierto en los tiros libres durante el último minuto, cuando los lanzadores son los pívots (-19,45%). Por otro lado, los resultados durante la última serie mostraron el efecto negativo significativo sobre la posición de pívot (- 19,30%) y la diferencia parcial en el marcador (-3,33%, para cada punto de diferencia en el marcador) en el porcentaje de acierto en los tiros libres. Las variables independientes edad, experiencia profesional, clasificación en la liga regular, fase de competición, localización, y tiempo restante, no revelaron efectos significativos en los modelos de regresión lineal. Los resultados de la regresión logística binomial revelaron que las variables experiencia profesional entre 13 y 18 años (OR = 4,63), jugar de alero (OR = 23,01), y jugar de base (OR = 10,68) están relacionadas con una baja probabilidad de disminuir el rendimiento durante el último minuto del partido; mientras que ir ganando, aumenta esta probabilidad (OR = 0,06). Además, los resultados de la última serie mostraron una menor disminución del rendimiento del jugador cuando tiene entre 13 y 18 años de experiencia (OR = 4,28), y juega de alero (OR = 8,06) o base (OR = 6,34). Por el contrario, las variables situacionales relacionadas con esa disminución del rendimiento del jugador son las fases eliminatorias (OR = 0,22) e ir ganando (OR = 0,04). Los resultados principales del estudio mostraron que existe una disminución del rendimiento del jugador en su porcentaje de acierto en los tiros libres durante el último minuto y en la última serie de lanzamientos del partido, y que está relacionada significativamente con la edad, experiencia profesional, puesto de juego del jugador, y diferencia parcial en el marcador. Encontrando relación también con la fase de competición, durante la última serie de tiros libres del partido. Esta información supone una valiosa información para el entrenador, y su aplicación en el ámbito competitivo real. En este sentido, la creación de simulaciones en el apartado de aplicaciones prácticas, permite predecir el porcentaje de acierto en los tiros libres de un jugador durante los momentos de mayor presión del partido, en base a su perfil de rendimiento. Lo que puede servir para realizar una toma de decisiones más idónea, con el objetivo de lograr el mejor resultado. Del mismo modo, orienta el tipo de proceso de entrenamiento que se ha de seguir, en relación a los jugadores más tendentes al drop, con el objetivo de minimizar el efecto de la presión sobre su capacidad para rendir adecuadamente en la ejecución de los tiros libres, y lograr de esta manera un rendimiento más homogéneo en todos los jugadores del equipo en esta faceta del juego, durante el momento crítico del final de partido. ABSTRACT. The final minute of a close game in basketball is a critical moment which is subject to many factors that influence its development. Thus, the success rate in free-throws during that period will determine, in many cases, the outcome of the game. Decrease of performance (drop) in this facet of play under pressure conditions, may be related to studied own multiple sports context variables, such as the remaining seconds of possession, the situation in the score (to be winning, drawing, or losing) the location of the match (playing at home or away), the competition phase (regular season or playoffs) or team level (best/worst teams). In addition, the characteristics of the player are very important related to his age and years of experience to face the critical moments, as well as his playing position into team. In this sense, the combination of factors in context and player, allows interact about performance of shooter in the final moments of the game during his free-throw shooting. The aim of this present doctoral thesis was find the most related variables to player´s drop in free throws in the last minute of the game and the last row of free-throws in closed games of basketball. To achieve the objective of the study, 124 closed games (less or equal than 2 points difference) were analyzed in every copetition in ACB league (regular season, playoff and cup) from 2011-2012 to 2014-2015 seasons. To record the variables, the percentage of success of the shooter in regular season, full game, last minute, and last row were analyzed. This way, it is tried to analyze which player and context variables explain the free-throw performance in last minute and last row of the game. On the other hand, it is tried to determine the degree of association between decrease of performance (drop) of the player in the final moments, and studied player variables: playing position, age, and years of professional experience; while considered situational variables considered were: competition phase, location, classification, remaining time, and score-line. For data analysis were performed two statistical models: 1) A multiple linear regression model to determine the effect of the independent variables in the succsess percentage of shooter at the last minute, and in the last row of free-throws in the game; and 2) A binomial logistic regression analysis to analyze the relationship between the probability of a drop (lower performance) and the characteristics of the shooter and situational variables. The results of multiple linear regression model showed significant negative effects on the free-throw percentage during last minute, when shooters are centers (-19.45%). On the other hand, results in the last series showed the significant negative effect on the center position (-19.30%) and score-line (-3.33% for each point difference in the score) in the free-throw percentage. The independent variables age, professional experience, ranking in the regular season, competition phase, location, and remaining time, revealed no significant effects on linear regression models. The results of the binomial logistic regression showed that the variables professional experience between 13 and 18 years (OR = 4.63), playing forward (OR = 23.01) and playing guard (OR = 10.68) are related to reduce the probability to decrease the performance during the last minute of the game. While wining, increases it (OR = 0.06). Furthermore, the results of the last row showed a reduction in performance degradation when player is between 13 and 18 years of experience (OR = 4.28), and playing forward (OR = 8.06) or guard (OR = 6.34). By contrast, the variables related to the decrease in performance of the player are the knockout phases (OR = 0.22) and wining (OR = 0.04). The main results of the study showed that there is a decrease in performance of the player in the percentage of success in free-throws in the last minute and last row of the game, and it is significantly associated with age, professional experience, and player position. Finding relationship with the competition phase, during last row of free-throws of the game too. This information is a valuable information for the coach, for applying in real competitive environment. In this sense, create simulations in the section of practical applications allows to predict the success rate of free-throw of a player during the most pressing moments of the game, based on their performance profile. What can be used to take more appropriate decisions in order to achieve the best result. Similarly, guides the type of training process must be followed in relation to the most favorable players to drop, in order to minimize the effect of pressure on their ability to perform properly in the execution of the free-throws. And to achieve, in this way, a more consistent performance in all team players in this facet of the game, during the critical moment in the final of the game.
Resumo:
El presente trabajo tiene como objetivo evaluar el aprendizaje de los deportes colectivos en el alumnado de segundo ciclo de Educación Secundaria Obligatoria (ESO) utilizando una herramienta denominada Game Performance Assessment Instrument (GPAI). Para ello se ha realizado una revisión de dos modelos de enseñanza existentes: el modelo técnico y el modelo comprensivo. Así mismo hemos revisado dos tipos de procesos de evaluación; por un lado la evaluación sumativa, más relacionada con el modelo técnico; por otro lado la evaluación formativa, más próxima al modelo comprensivo. A continuación se ha llevado a cabo una intervención didáctica aplicando el modelo de enseñanza comprensivo (TGfU) y el instrumento mencionado anteriormente (GPAI). Los resultados obtenidos han sido utilizados para proponer un sistema de evaluación basado en el modelo comprensivo con la utilización del GPAI y a través de la coevaluación como forma de asentar el aprendizaje en el alumnado. Se concluye que el modelo de enseñanza comprensivo (TGfU) con el GPAI y una evaluación entre iguales es bastante óptimo para favorecer el proceso de enseñanzaaprendizaje de los deportes colectivos en el alumnado de segundo ciclo de Educación Secundaria Obligatoria (ESO). ABSTRACT The present work has the aim to assess the learning of collective sports in Secondary Education students using a tool called Game Performance Assessment Instrument (GPAI). For that we have used to revision of two teaching models: the technical model and Teaching Games for Understanding (TGfU). At the same time, we have reviewed two kinds of assessment process; on one hand summative assessment which is related to technical model; on the other hand formative assessment nearest to Teaching Games for Understanding (TGfU). Next it has been done a didactic intervention using the Teaching Games for Understanding (TGfU) and that instrument mentioned beforehand. The results obtained have been used to suggest an assessment system based on Teaching Games for Understanding (TGfU) using the GPAI through the peer assessment as a way of teaching.
Resumo:
Esta tesis se centra en la identificación y análisis de los factores que pueden favorecer o actuar como barreras del éxito de la implementación de la innovación y las relaciones entre sí, desde el enfoque de la interface marketing-ventas. El trabajo empírico se enmarca en el vacío de investigación existente en el campo del proceso de lanzamiento de nuevos productos en los mercados donde operan subsidiarias de empresas multinacionales de consumo masivo (FMCG). Las empresas FMCG son altamente dependientes de la innovación como proceso clave determinante del crecimiento competitivo de mediano y largo plazo. En un contexto de acortamiento del ciclo de vida de los productos, como resultado del desarrollo tecnológico y científico que impactan en el comportamiento de los consumidores, las empresas invierten un mayor nivel de recursos en el desarrollo de nuevos productos, reingeniería y programas de innovación (Mundra, Gulati y Gupta, 2013). Sin embargo, a pesar del aumento en la inversión, las tasas de éxito de la innovación reportadas son inferiores al 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Aumentar las tasas de éxito de los proyectos de innovación es reconocida en la literatura como un elemento clave para la supervivencia y competitividad de las empresas, para ser superiores a su competencia y desarrollar nuevos modelos de negocios. A pesar de la existencia de estudios que intentan comprender el proceso de lanzamiento de nuevos productos, no se ha identificado un claro prototipo de gestión de la innovación (Gupta et al, 2007). Profundizando en los factores de éxito, los autores Keupp, Palmié y Gassman (2012) reconocen que la innovación exitosa no depende solamente de la estrategia de selección de los proyectos de innovación, sino también la forma en que los mismos son implementados (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). Al analizar la implementación de los proyectos de lanzamiento de nuevos productos al mercado, en empresas FMCG, dicho proceso es responsabilidad principalmente de las funciones de marketing y ventas a través de la comunicación con los consumidores y los clientes respectivamente (Ernst, Hoyer y Rubsaamen, 2010). Es decir que el éxito en la implementación de la innovación requiere la gestión efectiva de la relación inter-funcional entre marketing y ventas (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). A pesar de la importancia de la integración entre marketing y ventas en la conceptualización e implementación de la innovación, este tema no ha sido estudiado en profundidad (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). En las empresas multinacionales, está demostrado que el desempeño de las subsidiarias determinan el éxito competitivo de la empresa a nivel global. El desafío de dichas subsidiarias es conjugar el desarrollo global de innovación y comunicación con las características locales de comportamiento del consumidor y el mercado. Por lo tanto, esta investigación empírica responde a la pregunta académica y de gestión acerca de cómo mejorar las tasas de éxito de lanzamiento de nuevos productos al mercado en subsidiarias de empresas de consumo masivo, desde la perspectiva de la relación entre marketing y ventas. En particular analiza cómo afectan la formalización de los procesos y los mecanismos de comunicación a la confianza interpersonal y a la efectividad de la interface marketing-ventas y dichos factores a su vez sobre la planificación integrada de la implementación de la innovación. La determinación de los factores o ítems que conforman cada uno de los constructos del proceso de ejecución de la innovación, se llevó a cabo a partir de una revisión exhaustiva del estado del arte de la literatura sobre las interfaces funcionales y el proceso de innovación. Posteriormente, los ítems seleccionados (más de 50 en total) fueron validados por referentes de marketing y ventas de Argentina y Uruguay a través de entrevistas en profundidad. A partir de los factores identificados se construyeron dos modelos teóricos: • (1) relativo a la influencia de las dimensiones de confianza interpersonal sobre la efectividad de las uniones inter-funcionales y como los mecanismos organizacionales, tales como la frecuencia y la calidad de la comunicación entre las áreas, afectan la confianza y la relación entre ellas; • (2) relativo a la dimensión planificación integrada de la implementación de la innovación, ya que durante el lanzamiento de nuevos productos al mercado, marketing y ventas utilizan procesos formales que facilitan la comunicación frecuente y efectiva, desarrollando confianza inter-personal que no solamente afecta la efectividad de su relación sino también el desarrollo de planes integrados entre ambas áreas. El estudio fue llevado a cabo en una empresa multinacional de consumo masivo que integra la lista Global 500 (Fortune, 2015), presente en todo el mundo con más de 25 marcas participantes en más de 15 categorías, implementando 150 proyectos de innovación en el último año. El grupo de subsidiarias en estudio fue reconocido a nivel mundial por su desempeño en crecimiento competitivo y su alta contribución al crecimiento total. El modelo analizado en esta tesis fue expandido al resto de América Latina, tratándose entonces de un caso ejemplar que representa una práctica de excelencia en la implementación de la innovación en subsidiarias de una empresa multinacional. La recolección de los datos fue llevado a cabo a través de un cuestionario estructurado y confidencial, enviado a la base de datos de todo el universo de directores y gerentes de marketing y ventas. El nivel de respuesta fue muy elevado (70%), logrando 152 casos válidos. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad y análisis factorial exploratorio a través del software SPSS v.20. El análisis factorial confirmatorio y el análisis de senderos para examinar las relaciones entre los factores se estudiaron mediante el software R (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finalmente se llevaron a cabo entrevistas en profundidad a gerentes de marketing y ventas de cada uno de los seis países con el fin de profundizar en los constructos y sus relaciones. Los resultados de los modelos demuestran que la frecuencia de comunicación impacta positivamente en la calidad de la misma, que a su vez afecta directamente la relación entre marketing y ventas. Adicionalmente, la calidad de la comunicación impacta sobre la confianza cognitiva, que a su vez se relaciona no solamente con la confianza afectiva sino también con la relación entre ambas áreas. Esto significa que para mejorar la implementación de la innovación, los gerentes deberían orientarse a reforzar la relación entre marketing y ventas facilitando la construcción de confianza interpersonal primero cognitiva y luego afectiva, incrementando la frecuencia de la comunicación que alimenta la calidad de la comunicación entre ambas áreas. A través del segundo modelo se demuestra que durante el lanzamiento de nuevos productos al mercado, marketing y ventas necesitan emplear procesos formales que faciliten la comunicación frecuente y efectiva. De esta forma se contrarresta el efecto negativo de la formalización sobre la planificación integrada entre ambas áreas. Adicionalmente, los gerentes de ambos departamentos deberían promover la construcción de confianza interpersonal, no solamente para mejorar la efectividad de la relación, sino también para desarrollar planes integrados de implementación de nuevos productos. Finalmente, se valida que la frecuencia de la comunicación, la confianza afectiva y la relación marketing-ventas, se relacionan positivamente con la planificación integrada en la implementación de la innovación. El estudio contribuye a la comprensión de los factores que las empresas pueden emplear para mejorar la relación inter-funcional entre marketing y ventas y la implementación de la innovación en empresas de consumo masivo. El aporte de esta investigación puede ser valorado de dos maneras, los aportes a la gestión y a la academia. Desde el punto de vista empresarial, provee a los líderes al frente de empresas de consumo masivo, del conocimiento sobre los factores que afectan la implementación de la innovación y en definitiva el éxito del negocio a mediano y largo plazo. Desde el punto de vista académico aporta al conocimiento del proceso de implementación de la innovación y en la efectividad de la interface marketing y ventas en un caso de buenas prácticas en el mercado de consumo masivo. A su vez incorpora por primera vez un estudio empírico en geografías emergentes capaces de recuperar el camino de crecimiento posterior a una profunda crisis económica a través de la exitosa implementación de la innovación en sus mercados. ABSTRACT This thesis is focused on the identification, analysis and relationship study of factors which may benefit or hinder the successful deployment of innovation, from a marketing-sales interface perspective. Considering the non-existent investigation dedicated to the study of new products launches into markets in which Fast Moving Consumer Goods (FMCG) companies’ subsidiaries operate, it is that this investigation has been carried out. FMCG companies rely on innovation as their key process for a competitive growth on a medium and long term basis. Nowadays, the life-cycle of products is getting shorter as a result of new technological and scientific development, having impact on consumer behavior, and therefore companies are forced to dedicating more resources to the development of new products, reengineering and innovation programs (Mundra, Gulati and Gupta, 2013). However, in spite of the investment increase, the innovation success rates have been reported to be lower than 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Increasing success rates on innovation processes has been considered as a key element on the survival and competitiveness of companies, outperforming competitors and developing new business models. Despite new studies which try to comprehend the process of new products launch, a prototype of innovation management has not yet been identified (Gupta et al, 2007). Emphasizing on success factors, authors Keupp, Palmié and Gassman (2012) recognize that successful innovation does not solely depend on innovation processes’ selection strategy, but it is also based on the way in which these are implemented (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). While analyzing the implementation of projects for new products releases on massive consumption companies, the two departments in charge of taking this forward are marketing and sales, by focusing on communication strategies with consumers and clients respectively (Ernst, Hoyer y Rubsaamen, 2010). This means that having success on innovation implementation requires an effective management of inter-functional relationship among marketing and sales (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). In spite of the importance on the integration between marketing and sales on the conceptualization and implementation of innovation, this subject has not been studied in depth (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). In multinational companies, previous research has confirmed that the performance of their subsidiaries determine the competitive success of the company on a global scale. The challenge of said subsidiaries is to conjugate the global innovation development and communication with the local consumer and market behavior. Therefore, this empirical study aims to respond to the academic and management question of how to improve the success rates of new product launches into MNE subsidiary’ markets, from a marketing-sales relationship perspective. Particularly, this investigation analyses how the formalization of products and communication mechanisms affect interpersonal trust and marketing-sales interface effectiveness and also on how these factors affect the overall planning of the implementation of innovation. The determination of which factors build the hypothesis of the innovation execution process was taken forward through an extensive research on the extant literature on functional interfaces and innovation processes. More than 50 items were selected which were in turn validated by marketing and sales referents on Uruguay and Argentina through in depth interviews. Based on the identified factors, two theoretical models were proposed: (1) Relative to the influence that interpersonal trust dimensions have on inter functional linkages effectiveness and how organizational mechanisms such as frequency and quality of communication between departments affect trust and their relationship. (2) Relative to the integrated planning and innovation implementation dimensions. Marketing and sales department use formal process thus allowing inter-personal trust, which affects positively their relationship and also enables the development of integrated planning between them. The study was performed within a massive consumption company which is part of the “Global 500” (Fortune, 2015), with subsidiaries all over the world and more than 25 participant brands in 15 categories, having implemented over 150 innovation projects in the year under study. The analyzed subsidiary group has been awarded worldwide for their performance in competitive growth and their high contribution to the total growth. The model being analyzed in this thesis was implemented throughout Latin America, representing a remarkable case of innovation implementation excellence for subsidiaries of multinational companies. Data recollection was carried out through a structured and confidential questionnaire, sent to the universe of marketing-sales directors and managers’ database available with a high level of responsiveness of 70%, resulting in 152 valid cases. Data exploration involved a descriptive analysis, followed by a reliability estimation and an exploratory factorial analysis carried out through SPSS v.20. Confirmatory factorial analysis and path analysis (to examine relations between the different study factors) were studied using “R” software (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finally, in depth interviews were carried out to several marketing and sales managers in each of the six countries so as to further confirm the hypothesis and their relations. The models results prove that communication frequency has a positive impact on the quality of the same, which in turn has direct effects on the marketing-sales relations. Additionally, communication quality has an impact on the cognitive trust, which also relates not only to affective trust, but also to the relation between both areas. This means that in order to improve the implementation of innovation, managers should strive to enforce marketing-sales relations, facilitating the interpersonal trust construction (firstly cognitive, followed by affective trust), increasing the communication frequency, and therefore nurturing the communication quality among both areas. Through the second model, the results confirm the importance of creating effective relationships between sales and marketing to facilitate planning integrated new product implementations. While formalized new product development processes provide opportunities for sales and marketing to communicate, this does not directly influence the planning of integrated new product implementations. By using these formal opportunities to communicate to create information quality, it is possible to improve sales and marketing’s ability to integrate information during the planning process. Further, communication quality creates inter-personal trust in the other party’s competences (cognitive-based trust), leading to affect-based trust. Affect-based inter-personal trust, not only to improve the overall effectiveness of the sales and marketing relationship, but also helps in planning integrated new product implementations. This study contributes to the understanding of factors which enterprises can use to improve the inter-functional relations between marketing and sales, and the implementation of innovation in FMCG companies. The contribution of this investigation can be measured in two ways: enrichment of management and contribution to the academic area. From a business perspective, it provides massive consumption businesses leaders with knowledge on which factors affect innovation implementation, which results on mid and long-term success for the company. From an academic point of view, it provides knowledge on a prototype of successful innovation implementation management based on the marketing-sales interface effectiveness through a case study in the FMCG consumption market. Last but not least, it incorporates for the first time an empiric study on emerging geographies capable of recovery post a deep economic crisis through successful innovation implementation on their markets.