22 resultados para Statistical models

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La predicción de energía eólica ha desempeñado en la última década un papel fundamental en el aprovechamiento de este recurso renovable, ya que permite reducir el impacto que tiene la naturaleza fluctuante del viento en la actividad de diversos agentes implicados en su integración, tales como el operador del sistema o los agentes del mercado eléctrico. Los altos niveles de penetración eólica alcanzados recientemente por algunos países han puesto de manifiesto la necesidad de mejorar las predicciones durante eventos en los que se experimenta una variación importante de la potencia generada por un parque o un conjunto de ellos en un tiempo relativamente corto (del orden de unas pocas horas). Estos eventos, conocidos como rampas, no tienen una única causa, ya que pueden estar motivados por procesos meteorológicos que se dan en muy diferentes escalas espacio-temporales, desde el paso de grandes frentes en la macroescala a procesos convectivos locales como tormentas. Además, el propio proceso de conversión del viento en energía eléctrica juega un papel relevante en la ocurrencia de rampas debido, entre otros factores, a la relación no lineal que impone la curva de potencia del aerogenerador, la desalineación de la máquina con respecto al viento y la interacción aerodinámica entre aerogeneradores. En este trabajo se aborda la aplicación de modelos estadísticos a la predicción de rampas a muy corto plazo. Además, se investiga la relación de este tipo de eventos con procesos atmosféricos en la macroescala. Los modelos se emplean para generar predicciones de punto a partir del modelado estocástico de una serie temporal de potencia generada por un parque eólico. Los horizontes de predicción considerados van de una a seis horas. Como primer paso, se ha elaborado una metodología para caracterizar rampas en series temporales. La denominada función-rampa está basada en la transformada wavelet y proporciona un índice en cada paso temporal. Este índice caracteriza la intensidad de rampa en base a los gradientes de potencia experimentados en un rango determinado de escalas temporales. Se han implementado tres tipos de modelos predictivos de cara a evaluar el papel que juega la complejidad de un modelo en su desempeño: modelos lineales autorregresivos (AR), modelos de coeficientes variables (VCMs) y modelos basado en redes neuronales (ANNs). Los modelos se han entrenado en base a la minimización del error cuadrático medio y la configuración de cada uno de ellos se ha determinado mediante validación cruzada. De cara a analizar la contribución del estado macroescalar de la atmósfera en la predicción de rampas, se ha propuesto una metodología que permite extraer, a partir de las salidas de modelos meteorológicos, información relevante para explicar la ocurrencia de estos eventos. La metodología se basa en el análisis de componentes principales (PCA) para la síntesis de la datos de la atmósfera y en el uso de la información mutua (MI) para estimar la dependencia no lineal entre dos señales. Esta metodología se ha aplicado a datos de reanálisis generados con un modelo de circulación general (GCM) de cara a generar variables exógenas que posteriormente se han introducido en los modelos predictivos. Los casos de estudio considerados corresponden a dos parques eólicos ubicados en España. Los resultados muestran que el modelado de la serie de potencias permitió una mejora notable con respecto al modelo predictivo de referencia (la persistencia) y que al añadir información de la macroescala se obtuvieron mejoras adicionales del mismo orden. Estas mejoras resultaron mayores para el caso de rampas de bajada. Los resultados también indican distintos grados de conexión entre la macroescala y la ocurrencia de rampas en los dos parques considerados. Abstract One of the main drawbacks of wind energy is that it exhibits intermittent generation greatly depending on environmental conditions. Wind power forecasting has proven to be an effective tool for facilitating wind power integration from both the technical and the economical perspective. Indeed, system operators and energy traders benefit from the use of forecasting techniques, because the reduction of the inherent uncertainty of wind power allows them the adoption of optimal decisions. Wind power integration imposes new challenges as higher wind penetration levels are attained. Wind power ramp forecasting is an example of such a recent topic of interest. The term ramp makes reference to a large and rapid variation (1-4 hours) observed in the wind power output of a wind farm or portfolio. Ramp events can be motivated by a broad number of meteorological processes that occur at different time/spatial scales, from the passage of large-scale frontal systems to local processes such as thunderstorms and thermally-driven flows. Ramp events may also be conditioned by features related to the wind-to-power conversion process, such as yaw misalignment, the wind turbine shut-down and the aerodynamic interaction between wind turbines of a wind farm (wake effect). This work is devoted to wind power ramp forecasting, with special focus on the connection between the global scale and ramp events observed at the wind farm level. The framework of this study is the point-forecasting approach. Time series based models were implemented for very short-term prediction, this being characterised by prediction horizons up to six hours ahead. As a first step, a methodology to characterise ramps within a wind power time series was proposed. The so-called ramp function is based on the wavelet transform and it provides a continuous index related to the ramp intensity at each time step. The underlying idea is that ramps are characterised by high power output gradients evaluated under different time scales. A number of state-of-the-art time series based models were considered, namely linear autoregressive (AR) models, varying-coefficient models (VCMs) and artificial neural networks (ANNs). This allowed us to gain insights into how the complexity of the model contributes to the accuracy of the wind power time series modelling. The models were trained in base of a mean squared error criterion and the final set-up of each model was determined through cross-validation techniques. In order to investigate the contribution of the global scale into wind power ramp forecasting, a methodological proposal to identify features in atmospheric raw data that are relevant for explaining wind power ramp events was presented. The proposed methodology is based on two techniques: principal component analysis (PCA) for atmospheric data compression and mutual information (MI) for assessing non-linear dependence between variables. The methodology was applied to reanalysis data generated with a general circulation model (GCM). This allowed for the elaboration of explanatory variables meaningful for ramp forecasting that were utilized as exogenous variables by the forecasting models. The study covered two wind farms located in Spain. All the models outperformed the reference model (the persistence) during both ramp and non-ramp situations. Adding atmospheric information had a noticeable impact on the forecasting performance, specially during ramp-down events. Results also suggested different levels of connection between the ramp occurrence at the wind farm level and the global scale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta Tesis realiza una contribución metodológica al estudio del impacto del cambio climático sobre los usos del agua, centrándose particularmente en la agricultura. Tomando en consideración su naturaleza distinta, la metodología aborda de forma integral los impactos sobre la agricultura de secano y la agricultura de regadío. Para ello incorpora diferentes modelos agrícolas y de agua que conjuntamente con las simulaciones de los escenarios climáticos permiten determinar indicadores de impacto basados en la productividad de los cultivos, para el caso de la agricultura de secano, e indicadores de impacto basados en la disponibilidad de agua para irrigación, para el caso de la agricultura de regadío. La metodología toma en consideración el efecto de la variabilidad climática en la agricultura, evaluando las necesidades de adaptación y gestión asociadas a los impactos medios y a la variabilidad en la productividad de los cultivos y el efecto de la variabilidad hidrológica en la disponibilidad de agua para regadío. Considerando la gran cantidad de información proporcionada por las salidas de las simulaciones de los escenarios climáticos y su complejidad para procesarla, se ha desarrollado una herramienta de cálculo automatizada que integra diferentes escenarios climáticos, métodos y modelos que permiten abordar el impacto del cambio climático sobre la agricultura, a escala de grandes extensiones. El procedimiento metodológico parte del análisis de los escenarios climáticos en situación actual (1961-1990) y futura (2071-2100) para determinar su fiabilidad y conocer qué dicen exactamente las proyecciones climáticas a cerca de los impactos esperados en las principales variables que intervienen en el ciclo hidrológico. El análisis hidrológico se desarrolla en los ámbitos territoriales de la planificación hidrológica en España, considerando la disponibilidad de información para validar los resultados en escenario de control. Se utilizan como datos observados las series de escorrentía en régimen natural estimadas el modelo hidrológico SIMPA que está calibrado en la totalidad del territorio español. Al trabajar a escala de grandes extensiones, la limitada disponibilidad de datos o la falta de modelos hidrológicos correctamente calibrados para obtener los valores de escorrentía, muchas veces dificulta el proceso de evaluación, por tanto, en este estudio se plantea una metodología que compara diferentes métodos de interpolación y alternativas para generar series anuales de escorrentía que minimicen el sesgo con respecto a los valores observados. Así, en base a la alternativa que genera los mejores resultados, se obtienen series mensuales corregidas a partir de las simulaciones de los modelos climáticos regionales (MCR). Se comparan cuatro métodos de interpolación para obtener los valores de las variables a escala de cuenca hidrográfica, haciendo énfasis en la capacidad de cada método para reproducir los valores observados. Las alternativas utilizadas consideran la utilización de la escorrentía directa simulada por los MCR y la escorrentía media anual calculada utilizando cinco fórmulas climatológicas basadas en el índice de aridez. Los resultados se comparan además con la escorrentía global de referencia proporcionada por la UNH/GRDC que en la actualidad es el “mejor estimador” de la escorrentía actual a gran escala. El impacto del cambio climático en la agricultura de secano se evalúa considerando el efecto combinado de los riesgos asociados a las anomalías dadas por los cambios en la media y la variabilidad de la productividad de los cultivos en las regiones agroclimáticas de Europa. Este procedimiento facilita la determinación de las necesidades de adaptación y la identificación de los impactos regionales que deben ser abordados con mayor urgencia en función de los riesgos y oportunidades identificadas. Para ello se utilizan funciones regionales de productividad que han sido desarrolladas y calibradas en estudios previos en el ámbito europeo. Para el caso de la agricultura de regadío, se utiliza la disponibilidad de agua para irrigación como un indicador del impacto bajo escenarios de cambio climático. Considerando que la mayoría de estudios se han centrado en evaluar la disponibilidad de agua en régimen natural, en este trabajo se incorpora el efecto de las infraestructuras hidráulicas al momento de calcular el recurso disponible bajo escenarios de cambio climático Este análisis se desarrolla en el ámbito español considerando la disponibilidad de información, tanto de las aportaciones como de los modelos de explotación de los sistemas hidráulicos. Para ello se utiliza el modelo de gestión de recursos hídricos WAAPA (Water Availability and Adaptation Policy Assessment) que permite calcular la máxima demanda que puede atenderse bajo determinados criterios de garantía. Se utiliza las series mensuales de escorrentía observadas y las series mensuales de escorrentía corregidas por la metodología previamente planteada con el objeto de evaluar la disponibilidad de agua en escenario de control. Se construyen proyecciones climáticas utilizando los cambios en los valores medios y la variabilidad de las aportaciones simuladas por los MCR y también utilizando una fórmula climatológica basada en el índice de aridez. Se evalúan las necesidades de gestión en términos de la satisfacción de las demandas de agua para irrigación a través de la comparación entre la disponibilidad de agua en situación actual y la disponibilidad de agua bajo escenarios de cambio climático. Finalmente, mediante el desarrollo de una herramienta de cálculo que facilita el manejo y automatización de una gran cantidad de información compleja obtenida de las simulaciones de los MCR se obtiene un proceso metodológico que evalúa de forma integral el impacto del cambio climático sobre la agricultura a escala de grandes extensiones, y a la vez permite determinar las necesidades de adaptación y gestión en función de las prioridades identificadas. ABSTRACT This thesis presents a methodological contribution for studying the impact of climate change on water use, focusing particularly on agriculture. Taking into account the different nature of the agriculture, this methodology addresses the impacts on rainfed and irrigated agriculture, integrating agricultural and water planning models with climate change simulations scenarios in order to determine impact indicators based on crop productivity and water availability for irrigation, respectively. The methodology incorporates the effect of climate variability on agriculture, assessing adaptation and management needs associated with mean impacts, variability in crop productivity and the effect of hydrologic variability on water availability for irrigation. Considering the vast amount of information provided by the outputs of the regional climate model (RCM) simulations and also its complexity for processing it, a tool has been developed to integrate different climate scenarios, methods and models to address the impact of climate change on agriculture at large scale. Firstly, a hydrological analysis of the climate change scenarios is performed under current (1961-1990) and future (2071-2100) situation in order to know exactly what the models projections say about the expected impact on the main variables involved in the hydrological cycle. Due to the availability of information for validating the results in current situation, the hydrological analysis is developed in the territorial areas of water planning in Spain, where the values of naturalized runoff have been estimated by the hydrological model SIMPA, which are used as observed data. By working in large-scale studies, the limited availability of data or lack of properly calibrated hydrological model makes difficult to obtain runoff time series. So as, a methodology is proposed to compare different interpolation methods and alternatives to generate annual times series that minimize the bias with respect to observed values. Thus, the best alternative is selected in order to obtain bias-corrected monthly time series from the RCM simulations. Four interpolation methods for downscaling runoff to the basin scale from different RCM are compared with emphasis on the ability of each method to reproduce the observed behavior of this variable. The alternatives consider the use of the direct runoff of the RCMs and the mean annual runoff calculated using five functional forms of the aridity index. The results are also compared with the global runoff reference provided by the UNH/GRDC dataset, as a contrast of the “best estimator” of current runoff on a large scale. Secondly, the impact of climate change on rainfed agriculture is assessed considering the combined effect of the risks associated with anomalies given by changes in the mean and variability of crop productivity in the agro-climatic regions of Europe. This procedure allows determining adaptation needs based on the regional impacts that must be addressed with greater urgency in light of the risks and opportunities identified. Statistical models of productivity response are used for this purpose which have been developed and calibrated in previous European study. Thirdly, the impact of climate change on irrigated agriculture is evaluated considering the water availability for irrigation as an indicator of the impact. Given that most studies have focused on assessing water availability in natural regime, the effect of regulation is incorporated in this approach. The analysis is developed in the Spanish territory considering the available information of the observed stream flows and the regulation system. The Water Availability and Adaptation Policy Assessment (WAAPA) model is used in this study, which allows obtaining the maximum demand that could be supplied under certain conditions (demand seasonal distribution, water supply system management, and reliability criteria) for different policy alternatives. The monthly bias corrected time series obtained by previous methodology are used in order to assess water availability in current situation. Climate change projections are constructed taking into account the variation in mean and coefficient of variation simulated by the RCM. The management needs are determined by the agricultural demands satisfaction through the comparison between water availability under current conditions and under climate change projections. Therefore, the methodology allows evaluating the impact of climate change on agriculture to large scale, using a tool that facilitates the process of a large amount of complex information provided by the RCM simulations, in order to determine the adaptation and management needs in accordance with the priorities of the indentified impacts.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Wind power time series usually show complex dynamics mainly due to non-linearities related to the wind physics and the power transformation process in wind farms. This article provides an approach to the incorporation of observed local variables (wind speed and direction) to model some of these effects by means of statistical models. To this end, a benchmarking between two different families of varying-coefficient models (regime-switching and conditional parametric models) is carried out. The case of the offshore wind farm of Horns Rev in Denmark has been considered. The analysis is focused on one-step ahead forecasting and a time series resolution of 10 min. It has been found that the local wind direction contributes to model some features of the prevailing winds, such as the impact of the wind direction on the wind variability, whereas the non-linearities related to the power transformation process can be introduced by considering the local wind speed. In both cases, conditional parametric models showed a better performance than the one achieved by the regime-switching strategy. The results attained reinforce the idea that each explanatory variable allows the modelling of different underlying effects in the dynamics of wind power time series.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The principal risks in the railway industry are mainly associated with collisions, derailments and level crossing accidents. An understanding of the nature of previous accidents on the railway network is required to identify potential causes and develop safety systems and deploy safety procedures. Risk assessment is a process for determining the risk magnitude to assist with decision-making. We propose a three-step methodology to predict the mean number of fatalities in railway accidents. The first is to predict the mean number of accidents by analyzing generalized linear models and selecting the one that best fits to the available historical data on the basis of goodness-offit statistics. The second is to compute the mean number of fatalities per accident and the third is to estimate the mean number of fatalities. The methodology is illustrated on the Spanish railway system. Statistical models accounting for annual and grouped data for the 1992-2009 time period have been analyzed. After identifying the models for broad and narrow gauges, we predicted mean number of accidents and the number of fatalities for the 2010-18 time period.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This study analyses the variation of main physical-mechanical properties of wood along the longitudinal and radial directions of the tree for Abies alba Mill. growing in the Spanish Pyrenees. Small clear specimens were used to study the properties of volumetric shrinkage (VS), density (?), hardness (H), bending strength (MOR), modulus of elasticity (MOE), maximum compressive strength parallel to the grain (MCS) and impact strength (K). Several models of properties variation in the longitudinal and radial directions were analyzed. Main trends of variation of properties throughout the tree stem were identified although none of them could be fitted to predictive statistical models. Along the longitudinal direction, the properties studied followed a downward trend from the base to the crown, which was not significant in all cases, indicating that no differences in quality existed. Throughout the radial direction the trend is upward for the first 40-50 growth rings, after which it slopes downwards, more gently at first until rings 70-75 and then more steeply. This behaviour is related to variation in wood structure from the pith to the bark, depending on whether the wood is juvenile, sapwood or heartwood, and to wood maturity and microfibril angle. Authors encourage carrying further studies on other populations of A. alba in the Spanish Pyrenees to check if the trends found in this study apply to other provenances.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La teca (Tectona grandis L.f.) ha sido tradicionalmente considerada como una madera preciosa en los países del SE Asiático, de donde es originaria, pero durante las últimas décadas ha alcanzado especial relevancia en el sector internacional de las maderas tropicales duras de buena calidad. La especie ha sido ampliamente establecida en América Central, donde tiene una gran importancia socioeconómica, tanto por el impacto de las grandes empresas multinacionales que gestionan grandes plantaciones en la región, como por el gran número de pequeños y medianos propietarios que han elegido esta especie para reforestar sus tierras. Pese a la gran importancia de esta especie, se ha desarrollado relativamente poca investigación acerca de su nutrición y de la gestión del suelo necesaria para su establecimiento y mantenimiento en condiciones sostenibles y productivas. En la presente Tesis Doctoral, tras realizar una amplia revisión bibliográfica, se caracterizan los suelos y la nutrición de las plantaciones de teca en América Central y se proponen varias herramientas para la mejora de su gestión. Las plantaciones de teca de América Central presentan habitualmente deficiencias de K y P, además de algunos problemas de acidez ocasionales. Estos se originan, principalmente, por la mala selección de sitio que se realizó en las últimas dos décadas del siglo XX y por el establecimiento de plantaciones de teca por pequeños propietarios en terrenos que no tienen características propicias para la especie. Además, estos problemas comunes relativos a la baja disponibilidad de P y de K en el suelo son causantes de las relativamente bajas concentraciones foliares de estos elementos (0,88±0,07% K y 0,16±0,04% P) encontradas en plantaciones de teca características de la región. Se presentan varios modelos estadísticos que permiten a los gestores: (a) usarlos como referencia para la interpretación de análisis foliares, ya que ofrecen valores que se consideran característicos de plantaciones de teca con un buen estado nutricional; (b) estimar la cantidad de nutrientes acumulados en la biomasa aérea de sus plantaciones y, sobre todo, su extracción a través de la madera en un aprovechamiento forestal, bien sea una clara o la corta final. La gran acumulación de N, P y K en plantaciones de teca ha de ser considerada como un factor fundamental en su gestión. Además, P y K adquieren mayor relevancia aún ya que su extracción del sistema a través de la madera y su escasa disponibilidad en los suelos hacen que se presente un importante desequilibrio que pone en riesgo la sostenibilidad del sistema. En ese sentido, cambiar la época de cosecha, de la actual (en Enero-Mayo) a Septiembre o Diciembre, puede reducir entre un 24 y un 28% la salida de N asociada a la extracción de madera, un 29% la de P y entre un 14 y un 43% la de K. Se estima que la concentración foliar de P es un factor limitante de la productividad de plantaciones de teca en América Central, proponiéndose un nivel crítico de 0,125%. Además, la teca presenta una tolerancia muy baja a suelos salinos, tendencia que no había sido señalada hasta el momento, siendo muy alta la probabilidad de que la plantación tenga un crecimiento lento o muy lento cuando la Saturación de Na es mayor de 1,1%. Por otro lado, se confirma que K es uno de los elementos clave en la nutrición de las plantaciones de teca en la región centroamericana, proponiéndose un nivel crítico provisional de 3,09% para la Saturación de K, por encima del cual es muy probable que la plantación tenga un crecimiento muy alto. Se ha comprobado que las técnicas estadísticas de análisis multivariante pueden ser usadas como herramientas para agrupar los rodales en base a sus similitudes en cuanto a la fertilidad del suelo y mejorar así el diseño de planes de fertilización en plantaciones con una superficie relativamente grande. De esta manera, se pueden ajustar planes de fertilización más eficientes a escala de grupos de rodales, como un primer paso hacia la selvicultura de precisión, intensificando y diversificando la gestión en función de las diferencias edáficas. Finalmente, aunque los análisis foliares y de suelos indiquen la existencia de deficiencias nutricionales, la fertilización de las plantaciones no siempre va a producir efectos positivos sobre su crecimiento si no se diseña adecuadamente teniendo en cuenta varios factores que pueden estar influyendo negativamente en dicha respuesta, como la densidad de las plantaciones (sinergias con la programación de los clareos y claras) y la elección de la dosis y del producto a aplicar (habitualmente dosis bajas de N-P-K en lugar de incluir otros nutrientes como Mg, B y Zn o usar otros productos como micorrizas, biofertilizantes etc…). ABSTRACT Teak (Tectona grandis L.f.) has been traditionally considered as a precious wood in SE Asia, where it is indigenous. However, during recent decades the species has reached worldwide relevance in the tropical high quality hardwood sector. Teak has been widely established in Central America, where it has become a key species in the forest sector due to its socioeconomic impact, either because of the big-scale plantations of transnational companies and the abundant small-scale plantations established by many farmers. Despite the relevance of the species, little research has been carried out regarding its soil fertility and nutrition management, a key issue both for sustainability and productivity. The present Thesis performs a literature review to this respect, characterize the soil fertility and the nutrition of teak plantations of Central America and propose several management tools. Soil deficiencies of K and P are usually found in teak plantations in Central America, in addition to occasional acidity problems. These problems are mainly derived of (a) a poor site selection performed during 80s and 90s; and (b) small-scale plantations by farmers in sites which are not adequate for the species. These common soil fertility problems related with P and K soil availability are probably the cause of the relatively low P and K foliar concentration (0,88±0,07% K y 0,16±0,04% P) found in representative teak plantations of the region. Several statistical models are proposed, which allow forest managers to: (a) use them as a reference for foliar analysis interpretation, as they show values considered as representative for teak plantations with an adequate nutritional status in the region; (b) estimate the amount of nutrients accumulated in the aerial biomass of the plantations and, especially, the amount of them which are extracted from the systems as wood is harvested in thinning or final clearcuts. The accumulation of N, P and K result in a key factor for teak management in the region. This turns out to be especially relevant for the P and K because their high output rate by timber extraction and the low soil availability result in an important unbalance which constitutes a risk regarding the sustainability of the system. To this respect, modifying the harvesting time from the usual right now (January-May, business as usual scenario) to September or December (proposed alternatives) can reduce between 24 and 28% the N output associated to timber extraction, 29% the P output and between 14 and 43% the K. Foliar P concentration is a main limiting factor for teak plantations productivity in Central America and a 0.125% critical level is proposed. In addition, the results show a very low tolerance for soil salinity, tendency which was not previously reported. Hence, the probability of teak plantations to have low or very low Site Index is high when Na Saturation is higher than 1.1%. On the other hand, K is confirmed as one of the key nutrients regarding teak nutrition in Central America and a 3.09% provisional critical level is proposed for K Saturation; when values are above this level the probability of having very high Site Index is high. Multivariate statistical analyses have been successfully tested to be used as tools to group forest stands according to their soil fertility similarities. Hence, more efficient fertilization plans can be designed for each group of stands, intensifying and diversifying nutritional management according to soil fertility differences. This methodology, which is considered as a first step towards precision forestry, is regarded as helpful tool to design fertilization plans in big scale plantations. Finally, even though foliar and soil analysis would point out some nutritional deficiencies in a forest stand, the results show how the fertilization is not always going to have a positive effect over forest growth if it is not adequately designed. Some factors have been identified as determinants of tree response to fertilization: density (synergisms between fertilization and thinning scheduling) and the appropriate selection of dosages and product (usually low dosages are applied and N-P-K is preferred instead of applying other nutrients such as Mg, B or Zn or using other alternatives such as mycorrhizas or biofertilizers).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El minuto final de un partido ajustado de baloncesto es un momento crítico que está sujeto a multitud de factores que influyen en su desarrollo. Así, el porcentaje de acierto en los tiros libres durante ese periodo de tiempo va a determinar, en muchas ocasiones, el resultado final del partido. La disminución de rendimiento (drop) en esta faceta de juego en condiciones de presión, puede estar relacionada con múltiples variables propias del contexto deportivo estudiado, como por ejemplo: los segundos restantes de posesión, la situación en el marcador (ir ganando, empatando o perdiendo), la localización del partido (jugar en casa o fuera), la fase de competición (fase regular o eliminatorias) o el nivel del equipo (mejores/peores equipos). Además, las características del jugador que realiza los lanzamientos tienen una gran importancia respecto a su edad y años de experiencia para afrontar los momentos críticos, así como el puesto de juego que ocupa en el equipo. En este sentido, la combinación de factores del contexto y del jugador, permiten interactuar en el rendimiento del lanzador en los momentos finales de partido durante sus lanzamientos de tiro libre. El presente trabajo de tesis doctoral tiene como objetivo encontrar aquellas variables más relacionadas con la disminución de rendimiento del jugador en los tiros libres durante el último minuto de juego, y la última serie de tiros libres en los partidos ajustados de baloncesto. Para alcanzar el objetivo del estudio se analizaron 124 partidos ajustados (diferencias iguales o inferiores a 2 puntos) de todas las competiciones (fase regular, playoff y copa del Rey) de la liga ACB durante las temporadas 2011-2012 a 2014-2015. Para el registro de variables se analizó el porcentaje de acierto en los tiros libres del lanzador en la liga regular, partido completo, último minuto y última serie. De este modo se trató de analizar qué variables del contexto y del jugador permitían explicar el rendimiento en los tiros libres durante el último minuto, y la última serie de tiros libres del partido. Por otro lado, se trató de conocer el grado de asociación entre el descenso del rendimiento (drop) en los momentos finales de partido, y las variables estudiadas del jugador: puesto de juego, edad, y años de experiencia profesional; mientras que las variables situacionales consideradas fueron: fase de competición, localización, clasificación, tiempo restante, y diferencia parcial en el marcador. Para el análisis de los datos se realizaron dos modelos estadísticos: 1º) un modelo de regresión lineal múltiple para conocer el efecto de las variables independientes en el porcentaje de aciertos del lanzador en el último minuto, y en la última serie de tiros libres del partido; y 2º) un análisis de regresión logística binomial para analizar la relación existente entre la probabilidad de tener un drop (disminución del rendimiento) y las características del lanzador, y las variables situacionales. Los resultados del modelo de regresión lineal múltiple mostraron efectos negativos significativos en el porcentaje de acierto en los tiros libres durante el último minuto, cuando los lanzadores son los pívots (-19,45%). Por otro lado, los resultados durante la última serie mostraron el efecto negativo significativo sobre la posición de pívot (- 19,30%) y la diferencia parcial en el marcador (-3,33%, para cada punto de diferencia en el marcador) en el porcentaje de acierto en los tiros libres. Las variables independientes edad, experiencia profesional, clasificación en la liga regular, fase de competición, localización, y tiempo restante, no revelaron efectos significativos en los modelos de regresión lineal. Los resultados de la regresión logística binomial revelaron que las variables experiencia profesional entre 13 y 18 años (OR = 4,63), jugar de alero (OR = 23,01), y jugar de base (OR = 10,68) están relacionadas con una baja probabilidad de disminuir el rendimiento durante el último minuto del partido; mientras que ir ganando, aumenta esta probabilidad (OR = 0,06). Además, los resultados de la última serie mostraron una menor disminución del rendimiento del jugador cuando tiene entre 13 y 18 años de experiencia (OR = 4,28), y juega de alero (OR = 8,06) o base (OR = 6,34). Por el contrario, las variables situacionales relacionadas con esa disminución del rendimiento del jugador son las fases eliminatorias (OR = 0,22) e ir ganando (OR = 0,04). Los resultados principales del estudio mostraron que existe una disminución del rendimiento del jugador en su porcentaje de acierto en los tiros libres durante el último minuto y en la última serie de lanzamientos del partido, y que está relacionada significativamente con la edad, experiencia profesional, puesto de juego del jugador, y diferencia parcial en el marcador. Encontrando relación también con la fase de competición, durante la última serie de tiros libres del partido. Esta información supone una valiosa información para el entrenador, y su aplicación en el ámbito competitivo real. En este sentido, la creación de simulaciones en el apartado de aplicaciones prácticas, permite predecir el porcentaje de acierto en los tiros libres de un jugador durante los momentos de mayor presión del partido, en base a su perfil de rendimiento. Lo que puede servir para realizar una toma de decisiones más idónea, con el objetivo de lograr el mejor resultado. Del mismo modo, orienta el tipo de proceso de entrenamiento que se ha de seguir, en relación a los jugadores más tendentes al drop, con el objetivo de minimizar el efecto de la presión sobre su capacidad para rendir adecuadamente en la ejecución de los tiros libres, y lograr de esta manera un rendimiento más homogéneo en todos los jugadores del equipo en esta faceta del juego, durante el momento crítico del final de partido. ABSTRACT. The final minute of a close game in basketball is a critical moment which is subject to many factors that influence its development. Thus, the success rate in free-throws during that period will determine, in many cases, the outcome of the game. Decrease of performance (drop) in this facet of play under pressure conditions, may be related to studied own multiple sports context variables, such as the remaining seconds of possession, the situation in the score (to be winning, drawing, or losing) the location of the match (playing at home or away), the competition phase (regular season or playoffs) or team level (best/worst teams). In addition, the characteristics of the player are very important related to his age and years of experience to face the critical moments, as well as his playing position into team. In this sense, the combination of factors in context and player, allows interact about performance of shooter in the final moments of the game during his free-throw shooting. The aim of this present doctoral thesis was find the most related variables to player´s drop in free throws in the last minute of the game and the last row of free-throws in closed games of basketball. To achieve the objective of the study, 124 closed games (less or equal than 2 points difference) were analyzed in every copetition in ACB league (regular season, playoff and cup) from 2011-2012 to 2014-2015 seasons. To record the variables, the percentage of success of the shooter in regular season, full game, last minute, and last row were analyzed. This way, it is tried to analyze which player and context variables explain the free-throw performance in last minute and last row of the game. On the other hand, it is tried to determine the degree of association between decrease of performance (drop) of the player in the final moments, and studied player variables: playing position, age, and years of professional experience; while considered situational variables considered were: competition phase, location, classification, remaining time, and score-line. For data analysis were performed two statistical models: 1) A multiple linear regression model to determine the effect of the independent variables in the succsess percentage of shooter at the last minute, and in the last row of free-throws in the game; and 2) A binomial logistic regression analysis to analyze the relationship between the probability of a drop (lower performance) and the characteristics of the shooter and situational variables. The results of multiple linear regression model showed significant negative effects on the free-throw percentage during last minute, when shooters are centers (-19.45%). On the other hand, results in the last series showed the significant negative effect on the center position (-19.30%) and score-line (-3.33% for each point difference in the score) in the free-throw percentage. The independent variables age, professional experience, ranking in the regular season, competition phase, location, and remaining time, revealed no significant effects on linear regression models. The results of the binomial logistic regression showed that the variables professional experience between 13 and 18 years (OR = 4.63), playing forward (OR = 23.01) and playing guard (OR = 10.68) are related to reduce the probability to decrease the performance during the last minute of the game. While wining, increases it (OR = 0.06). Furthermore, the results of the last row showed a reduction in performance degradation when player is between 13 and 18 years of experience (OR = 4.28), and playing forward (OR = 8.06) or guard (OR = 6.34). By contrast, the variables related to the decrease in performance of the player are the knockout phases (OR = 0.22) and wining (OR = 0.04). The main results of the study showed that there is a decrease in performance of the player in the percentage of success in free-throws in the last minute and last row of the game, and it is significantly associated with age, professional experience, and player position. Finding relationship with the competition phase, during last row of free-throws of the game too. This information is a valuable information for the coach, for applying in real competitive environment. In this sense, create simulations in the section of practical applications allows to predict the success rate of free-throw of a player during the most pressing moments of the game, based on their performance profile. What can be used to take more appropriate decisions in order to achieve the best result. Similarly, guides the type of training process must be followed in relation to the most favorable players to drop, in order to minimize the effect of pressure on their ability to perform properly in the execution of the free-throws. And to achieve, in this way, a more consistent performance in all team players in this facet of the game, during the critical moment in the final of the game.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ocean energy is a promising resource for renewable electricity generation that presents many advantages, such as being more predictable than wind energy, but also some disadvantages such as large and slow amplitude variations in the generated power. This paper presents a hardware-in-the-loop prototype that allows the study of the electric power profile generated by a wave power plant based on the oscillating water column (OWC) principle. In particular, it facilitates the development of new solutions to improve the intermittent profile of the power fed into the grid or the test of the OWC behavior when facing a voltage dip. Also, to obtain a more realistic model behavior, statistical models of real waves have been implemented.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Aplicación de simulación de Monte Carlo y técnicas de Análisis de la Varianza (ANOVA) a la comparación de modelos estocásticos dinámicos para accidentes de tráfico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

At present there is much literature that refers to the advantages and disadvantages of different methods of statistical and dynamical downscaling of climate variables projected by climate models. Less attention has been paid to other indirect variables, like runoff, which play a significant role in evaluating the impact of climate change on hydrological systems. Runoff presents a much greater bias in climate models than other climate variables, like temperature or precipitation. It is very important to identify the methods that minimize bias while downscaling runoff from the gridded results of climate models to the basin scale

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pragmatism is the leading motivation of regularization. We can understand regularization as a modification of the maximum-likelihood estimator so that a reasonable answer could be given in an unstable or ill-posed situation. To mention some typical examples, this happens when fitting parametric or non-parametric models with more parameters than data or when estimating large covariance matrices. Regularization is usually used, in addition, to improve the bias-variance tradeoff of an estimation. Then, the definition of regularization is quite general, and, although the introduction of a penalty is probably the most popular type, it is just one out of multiple forms of regularization. In this dissertation, we focus on the applications of regularization for obtaining sparse or parsimonious representations, where only a subset of the inputs is used. A particular form of regularization, L1-regularization, plays a key role for reaching sparsity. Most of the contributions presented here revolve around L1-regularization, although other forms of regularization are explored (also pursuing sparsity in some sense). In addition to present a compact review of L1-regularization and its applications in statistical and machine learning, we devise methodology for regression, supervised classification and structure induction of graphical models. Within the regression paradigm, we focus on kernel smoothing learning, proposing techniques for kernel design that are suitable for high dimensional settings and sparse regression functions. We also present an application of regularized regression techniques for modeling the response of biological neurons. Supervised classification advances deal, on the one hand, with the application of regularization for obtaining a na¨ıve Bayes classifier and, on the other hand, with a novel algorithm for brain-computer interface design that uses group regularization in an efficient manner. Finally, we present a heuristic for inducing structures of Gaussian Bayesian networks using L1-regularization as a filter. El pragmatismo es la principal motivación de la regularización. Podemos entender la regularización como una modificación del estimador de máxima verosimilitud, de tal manera que se pueda dar una respuesta cuando la configuración del problema es inestable. A modo de ejemplo, podemos mencionar el ajuste de modelos paramétricos o no paramétricos cuando hay más parámetros que casos en el conjunto de datos, o la estimación de grandes matrices de covarianzas. Se suele recurrir a la regularización, además, para mejorar el compromiso sesgo-varianza en una estimación. Por tanto, la definición de regularización es muy general y, aunque la introducción de una función de penalización es probablemente el método más popular, éste es sólo uno de entre varias posibilidades. En esta tesis se ha trabajado en aplicaciones de regularización para obtener representaciones dispersas, donde sólo se usa un subconjunto de las entradas. En particular, la regularización L1 juega un papel clave en la búsqueda de dicha dispersión. La mayor parte de las contribuciones presentadas en la tesis giran alrededor de la regularización L1, aunque también se exploran otras formas de regularización (que igualmente persiguen un modelo disperso). Además de presentar una revisión de la regularización L1 y sus aplicaciones en estadística y aprendizaje de máquina, se ha desarrollado metodología para regresión, clasificación supervisada y aprendizaje de estructura en modelos gráficos. Dentro de la regresión, se ha trabajado principalmente en métodos de regresión local, proponiendo técnicas de diseño del kernel que sean adecuadas a configuraciones de alta dimensionalidad y funciones de regresión dispersas. También se presenta una aplicación de las técnicas de regresión regularizada para modelar la respuesta de neuronas reales. Los avances en clasificación supervisada tratan, por una parte, con el uso de regularización para obtener un clasificador naive Bayes y, por otra parte, con el desarrollo de un algoritmo que usa regularización por grupos de una manera eficiente y que se ha aplicado al diseño de interfaces cerebromáquina. Finalmente, se presenta una heurística para inducir la estructura de redes Bayesianas Gaussianas usando regularización L1 a modo de filtro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this study is to analyze the applicability of current models used for estimating the mechanical properties of conventional concrete to self-consolidating concrete (SCC). The mechanical properties evaluated are modulus of elasticity, tensile strength,and modulus of rupture. As part of the study, it was necessary to build an extensive database that included the proportions and mechanical properties of 627 mixtures from 138 different references. The same models that are currently used for calculating the mechanical properties of conventional concrete were applied to SCC to evaluate their applicability to this type of concrete. The models considered are the ACI 318, ACI 363R, and EC2. These are the most commonly used models worldwide. In the first part of the study, the overall behavior and adaptability of the different models to SCC is evaluated. The specific characterization parameters for each concrete mixture are used to calculate the various mechanical properties applying the different estimation models. The second part of the analysis consists of comparing the experimental results of all the mixtures included in the database with the estimated results to evaluate the applicability of these models to SCC. Various statistical procedures, such as regression analysis and residual analysis, are used to compare the predicted and measured properties. It terms of general applicability, the evaluated models are suitable for estimating the modulus of elasticity, tensile strength, and modulus of rupture of SCC. These models have a rather low sensitivity, however, and adjust well only to mean values. This is because the models use the compressive strength as the main variable to characterize the concrete and do not consider other variables that affect these properties.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Time domain laser reflectance spectroscopy (TDRS) was applied for the first time to evaluate internal fruit quality. This technique, known in medicine-related knowledge areas, has not been used before in agricultural or food research. It allows the simultaneous non-destructive measuring of two optical characteristics of the tissues: light scattering and absorption. Models to measure firmness, sugar & acid contents in kiwifruit, tomato, apple, peach, nectarine and other fruits were built using sequential statistical techniques: principal component analysis, multiple stepwise linear regression, clustering and discriminant analysis. Consistent correlations were established between the two parameters measured with TDRS, i.e. absorption & transport scattering coefficients, with chemical constituents (sugars and acids) and firmness, respectively. Classification models were built to sort fruits into three quality grades, according to their firmness, soluble solids and acidity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The modal analysis of a structural system consists on computing its vibrational modes. The experimental way to estimate these modes requires to excite the system with a measured or known input and then to measure the system output at different points using sensors. Finally, system inputs and outputs are used to compute the modes of vibration. When the system refers to large structures like buildings or bridges, the tests have to be performed in situ, so it is not possible to measure system inputs such as wind, traffic, . . .Even if a known input is applied, the procedure is usually difficult and expensive, and there are still uncontrolled disturbances acting at the time of the test. These facts led to the idea of computing the modes of vibration using only the measured vibrations and regardless of the inputs that originated them, whether they are ambient vibrations (wind, earthquakes, . . . ) or operational loads (traffic, human loading, . . . ). This procedure is usually called Operational Modal Analysis (OMA), and in general consists on to fit a mathematical model to the measured data assuming the unobserved excitations are realizations of a stationary stochastic process (usually white noise processes). Then, the modes of vibration are computed from the estimated model. The first issue investigated in this thesis is the performance of the Expectation- Maximization (EM) algorithm for the maximum likelihood estimation of the state space model in the field of OMA. The algorithm is described in detail and it is analysed how to apply it to vibration data. After that, it is compared to another well known method, the Stochastic Subspace Identification algorithm. The maximum likelihood estimate enjoys some optimal properties from a statistical point of view what makes it very attractive in practice, but the most remarkable property of the EM algorithm is that it can be used to address a wide range of situations in OMA. In this work, three additional state space models are proposed and estimated using the EM algorithm: • The first model is proposed to estimate the modes of vibration when several tests are performed in the same structural system. Instead of analyse record by record and then compute averages, the EM algorithm is extended for the joint estimation of the proposed state space model using all the available data. • The second state space model is used to estimate the modes of vibration when the number of available sensors is lower than the number of points to be tested. In these cases it is usual to perform several tests changing the position of the sensors from one test to the following (multiple setups of sensors). Here, the proposed state space model and the EM algorithm are used to estimate the modal parameters taking into account the data of all setups. • And last, a state space model is proposed to estimate the modes of vibration in the presence of unmeasured inputs that cannot be modelled as white noise processes. In these cases, the frequency components of the inputs cannot be separated from the eigenfrequencies of the system, and spurious modes are obtained in the identification process. The idea is to measure the response of the structure corresponding to different inputs; then, it is assumed that the parameters common to all the data correspond to the structure (modes of vibration), and the parameters found in a specific test correspond to the input in that test. The problem is solved using the proposed state space model and the EM algorithm. Resumen El análisis modal de un sistema estructural consiste en calcular sus modos de vibración. Para estimar estos modos experimentalmente es preciso excitar el sistema con entradas conocidas y registrar las salidas del sistema en diferentes puntos por medio de sensores. Finalmente, los modos de vibración se calculan utilizando las entradas y salidas registradas. Cuando el sistema es una gran estructura como un puente o un edificio, los experimentos tienen que realizarse in situ, por lo que no es posible registrar entradas al sistema tales como viento, tráfico, . . . Incluso si se aplica una entrada conocida, el procedimiento suele ser complicado y caro, y todavía están presentes perturbaciones no controladas que excitan el sistema durante el test. Estos hechos han llevado a la idea de calcular los modos de vibración utilizando sólo las vibraciones registradas en la estructura y sin tener en cuenta las cargas que las originan, ya sean cargas ambientales (viento, terremotos, . . . ) o cargas de explotación (tráfico, cargas humanas, . . . ). Este procedimiento se conoce en la literatura especializada como Análisis Modal Operacional, y en general consiste en ajustar un modelo matemático a los datos registrados adoptando la hipótesis de que las excitaciones no conocidas son realizaciones de un proceso estocástico estacionario (generalmente ruido blanco). Posteriormente, los modos de vibración se calculan a partir del modelo estimado. El primer problema que se ha investigado en esta tesis es la utilización de máxima verosimilitud y el algoritmo EM (Expectation-Maximization) para la estimación del modelo espacio de los estados en el ámbito del Análisis Modal Operacional. El algoritmo se describe en detalle y también se analiza como aplicarlo cuando se dispone de datos de vibraciones de una estructura. A continuación se compara con otro método muy conocido, el método de los Subespacios. Los estimadores máximo verosímiles presentan una serie de propiedades que los hacen óptimos desde un punto de vista estadístico, pero la propiedad más destacable del algoritmo EM es que puede utilizarse para resolver un amplio abanico de situaciones que se presentan en el Análisis Modal Operacional. En este trabajo se proponen y estiman tres modelos en el espacio de los estados: • El primer modelo se utiliza para estimar los modos de vibración cuando se dispone de datos correspondientes a varios experimentos realizados en la misma estructura. En lugar de analizar registro a registro y calcular promedios, se utiliza algoritmo EM para la estimación conjunta del modelo propuesto utilizando todos los datos disponibles. • El segundo modelo en el espacio de los estados propuesto se utiliza para estimar los modos de vibración cuando el número de sensores disponibles es menor que vi Resumen el número de puntos que se quieren analizar en la estructura. En estos casos es usual realizar varios ensayos cambiando la posición de los sensores de un ensayo a otro (múltiples configuraciones de sensores). En este trabajo se utiliza el algoritmo EM para estimar los parámetros modales teniendo en cuenta los datos de todas las configuraciones. • Por último, se propone otro modelo en el espacio de los estados para estimar los modos de vibración en la presencia de entradas al sistema que no pueden modelarse como procesos estocásticos de ruido blanco. En estos casos, las frecuencias de las entradas no se pueden separar de las frecuencias del sistema y se obtienen modos espurios en la fase de identificación. La idea es registrar la respuesta de la estructura correspondiente a diferentes entradas; entonces se adopta la hipótesis de que los parámetros comunes a todos los registros corresponden a la estructura (modos de vibración), y los parámetros encontrados en un registro específico corresponden a la entrada en dicho ensayo. El problema se resuelve utilizando el modelo propuesto y el algoritmo EM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Stochastic model updating must be considered for quantifying uncertainties inherently existing in real-world engineering structures. By this means the statistical properties,instead of deterministic values, of structural parameters can be sought indicating the parameter variability. However, the implementation of stochastic model updating is much more complicated than that of deterministic methods particularly in the aspects of theoretical complexity and low computational efficiency. This study attempts to propose a simple and cost-efficient method by decomposing a stochastic updating process into a series of deterministic ones with the aid of response surface models and Monte Carlo simulation. The response surface models are used as surrogates for original FE models in the interest of programming simplification, fast response computation and easy inverse optimization. Monte Carlo simulation is adopted for generating samples from the assumed or measured probability distributions of responses. Each sample corresponds to an individual deterministic inverse process predicting the deterministic values of parameters. Then the parameter means and variances can be statistically estimated based on all the parameter predictions by running all the samples. Meanwhile, the analysis of variance approach is employed for the evaluation of parameter variability significance. The proposed method has been demonstrated firstly on a numerical beam and then a set of nominally identical steel plates tested in the laboratory. It is found that compared with the existing stochastic model updating methods, the proposed method presents similar accuracy while its primary merits consist in its simple implementation and cost efficiency in response computation and inverse optimization.