59 resultados para regresión lineal
Resumo:
El MC en baloncesto es aquel fenómeno relacionado con el juego que presenta unas características particulares determinadas por la idiosincrasia de un equipo y puede afectar a los protagonistas y por ende al devenir del juego. En la presente Tesis se ha estudiado la incidencia del MC en Liga A.C.B. de baloncesto y para su desarrollo en profundidad se ha planteado dos investigaciones una cuantitativa y otra cualitativa cuya metodología se detalla a continuación: La investigación cuantitativa se ha basado en la técnica de estudio del “Performance analysis”, para ello se han estudiado cuatro temporadas de la Liga A.C.B. (del 2007/08 al 2010/11), tal y como refleja en la bibliografía consultada se han tomado como momentos críticos del juego a los últimos cinco minutos de partidos donde la diferencia de puntos fue de seis puntos y todos los Tiempos Extras disputados, de tal manera que se han estudiado 197 momentos críticos. La contextualización del estudio se ha hecho en función de la variables situacionales “game location” (local o visitante), “team quality” (mejores o peores clasificados) y “competition” (fases de LR y Playoff). Para la interpretación de los resultados se han realizado los siguientes análisis descriptivos: 1) Análisis Discriminante, 2) Regresión Lineal Múltiple; y 3) Análisis del Modelo Lineal General Multivariante. La investigación cualitativa se ha basado en la técnica de investigación de la entrevista semiestructurada. Se entrevistaron a 12 entrenadores que militaban en la Liga A.C.B. durante la temporada 2011/12, cuyo objetivo ha sido conocer el punto de vista que tiene el entrenador sobre el concepto del MC y que de esta forma pudiera dar un enfoque más práctico basado en su conocimiento y experiencia acerca de cómo actuar ante el MC en el baloncesto. Los resultados de ambas investigaciones coinciden en señalar la importancia del MC sobre el resultado final del juego. De igual forma, el concepto en sí entraña una gran complejidad por lo que se considera fundamental la visión científica de la observación del juego y la percepción subjetiva que presenta el entrenador ante el fenómeno, para la cual los aspectos psicológicos de sus protagonistas (jugadores y entrenadores) son determinantes. ABSTRACT The Critical Moment (CM) in basketball is a related phenomenon with the game that has particular features determined by the idiosyncrasies of a team and can affect the players and therefore the future of the game. In this Thesis we have studied the impact of CM in the A.C.B. League and from a profound development two investigations have been raised, quantitative and qualitative whose methodology is as follows: The quantitative research is based on the technique of study "Performance analysis", for this we have studied four seasons in the A.C.B. League (2007/08 to 2010/11), and as reflected in the literature the Critical Moments of the games were taken from the last five minutes of games where the point spread was six points and all overtimes disputed, such that 197 critical moments have been studied. The contextualization of the study has been based on the situational variables "game location" (home or away), "team quality" (better or lower classified) and "competition" (LR and Playoff phases). For the interpretation of the results the following descriptive analyzes were performed: 1) Discriminant Analysis, 2) Multiple Linear Regression Analysis; and 3) Analysis of Multivariate General Linear Model. Qualitative research is based on the technique of investigation of a semi-structured interview. 12 coaches who belonged to the A.C.B. League were interviewed in seasons 2011/12, which aimed to determine the point of view that the coach has on the CM concept and thus could give a more practical approach based on their knowledge and experience about how to deal with the CM in basketball. The results of both studies agree on the importance of the CM on the final outcome of the game. Similarly, the concept itself is highly complex so the scientific view of the observation of the game is considered essential as well as the subjective perception the coach presents before the phenomenon, for which the psychological aspects of their characters (players and coaches) are crucial.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.
Resumo:
El modelo aplicado en el estudio, se basa en una metodología publicada en trabajos anteriores en bosques tropicales. El análisis se apoya en información obtenida con tecnología LiDAR aerotransportada y datos de censo de una mega-parcela forestal de 50 ha, en el Parque Nacional ?Yasuní? (PNY) en Ecuador. La metodología considera los hábitats topográficos, la distribución espacial de las parcelas de ajuste y validación en el diseño de muestreo y un modelo general para estimación de densidad de carbono. El modelo se ajusta usando técnicas de análisis de regresión lineal (R2=0,89, RMSE=8,67 MgC ha-1). Este enfoque metodológico hace posible calibraciones más precisas y permite cartografiar la distribución espacial de la biomasa sobre el suelo en alta resolución para una mejor estimación de las reservas de carbono en bosque tropical.
Resumo:
Objetivo: Este Trabajo Fin de Máster (TFM) analiza la importancia de la información poblacional en el análisis de datos de experimentos en IS. Por otro lado se intenta abordar un estudio sobre las posibles metodologías que se pueden usar para realizar dicho análisis. Contexto: El análisis se realiza sobre los resultados de un experimento llevado a cabo por el Grupo de Investigación de IS empírica de la UPM, cuyo objetivo es analizar el impacto que tiene el uso de TDD (Test Driven Development) sobre la calidad y la productividad del desarrollo software en comparación con el desarrollo tradicional TLD. Método de Investigación: Se analizan ocho variables demográficas frente a tres variables respuesta. Las metodologías o técnicas de análisis que se revisan son la Dicotomización, la Correlación de Pearson, la regresión lineal múltiple y la stepwise regression. Resultados: No se encuentran evidencias claras para afirmar que las variables demográficas influyen en los resultados de los experimentos. No obstante los resultados no son del todo concluyentes y queda abierta la investigación a realizarse con una muestra más amplia y representativa. En relación a la metodología de análisis aplicada, la dicotomización y la correlación de Pearson presentan deficiencias que se solventan con la regresión lineal múltiple y la stepwise regression. Conclusión: Resulta de vital importancia encontrar evidencias de la influencia de las características demográficas de los sujetos experimentales en el análisis de los datos experimentos en IS. Se ha encontrado un buen método para analizar esta influencia, pero falta replicar este análisis a más experimentos de IS para obtener resultados mejor fundados.---ABSTRACT---Objective: This Master's Thesis (TFM) discusses the importance of demographic data in the analysis of data from experiments in SE. On the other hand, it attempts to address a study of the possible methodologies that can be used to perform the analysis. Context: The analysis is performed on the results of an experiment conducted by the ESE Research Group of the UPM, aimed at analyzing the impact of the use of TDD (Test Driven Development) on quality and productivity, compared to traditional development TLD (Test Last Development). Research Method: Eight demographic variables were analyzed against three response variables. The methodologies and analysis techniques that are reviewed include dichotomization, Pearson correlation, multiple linear regression and stepwise regression. Results: There is not clear evidence to say that demographic variables influence the results of SE experiments. However the results are not conclusive, and are open to research with a broader and more representative sample. Regarding the applied analysis methodology, dichotomization and Pearson correlation have deficiencies that are solved with multiple linear regression and stepwise regression. Conclusion: It is very important to find evidence on the influence of demographic characteristics of subjects in the data analysis of SE experiments. We found a good way to analyze this influence, but is necessary replicate this analysis on more SE experiments to obtain sound results.
Resumo:
El consumo mundial, impulsor del desarrollo y crecimiento económico de los pueblos, no ha sido igual para todas las naciones, ya que sus efectos han sido diferentes para los ciudadanos de los países del Norte y los del Sur, principalmente por dos razones: una, porque han originado complejos y diferentes estilos de vida y aspiraciones, lo que ha originado grandes diferencias entre los individuos de unos y otros países, y, dos, por su falta de valores sociales y éticos. Ante esta situación, la sociedad en su conjunto debe tomar conciencia de este hecho, y a través de un consumo responsable y de un mayor conocimiento de las relaciones comerciales entre los pueblos, debe optar por consumir productos elaborados bajo criterios de justicia y equidad. Para ayudar a alcanzar estos objetivos de equidad, solidaridad, justicia y ética, nació el Comercio Justo, que, en el caso de España, llegó con veinte años de retraso en la década de los ochenta. Aunque a día de hoy sus ventas crecen a un buen ritmo, siguen siendo inferiores al resto de los países europeos, por cuatro razones: (1) el desconocimiento que la mayoría de los potenciales consumidores tienen de este movimiento social; (2) la dificultad de acceder a los productos que comercializan; (3) el poco impulso que se ofrece desde las Administraciones Públicas; y, (4) porque hay pocas investigaciones en las que se haya analizado el Comercio Justo desde la perspectiva de la demanda, lo que ha implicado que no haya un conocimiento profundo sobre los consumidores de este tipo de productos y sobre sus motivaciones de compra. En base a todo lo expuesto, el presente trabajo se concibe como un estudio exploratorio, que tiene como objetivo principal analizar el perfil de los consumidores y no consumidores de productos de Comercio Justo, sus motivaciones de compra y no compra, así como las variables que influyen en la intención de compra futura, tanto en el segmento de consumidores actuales, como en el segmento de no consumidores de este tipo de productos. Para la realización de este trabajo, se ha utilizado, por una parte, una metodología cualitativa, que ha permitido acceder a la información sobre las opiniones y actitudes que intervienen en los procesos de decisión de compra; y, por otra, una metodología cuantitativa, a través de una encuesta online dirigida a 6.500 individuos, que ha permitido tener información, a través de sendos análisis descriptivos univariante y bivariante, de los individuos encuestados sobre el objeto del estudio. Para validar los modelos y contrastar las hipótesis planteadas, se ha utilizado el análisis de fiabilidad y validación de las escalas de medición seleccionadas (Alpha de Cronbach); el análisis factorial exploratorio, para comprobar la dimensionalidad y validez convergente de las escalas de medida; el análisis factorial confirmatorio, para validar la idoneidad de los modelos de medida propuestos; la regresión logística, para comprobar la validez del modelo general de la probabilidad de la compra o no compra de productos de Comercio Justo; y la regresión lineal múltiple, para comprobar la validez de los modelos específicos de intención de compra futura en los segmentos de compradores y de no compradores. Para realizar todos estos análisis, se han utilizado las herramientas informáticas SPSS v21 y AMOS. Las principales conclusiones del trabajo son: (1) que se deben establecer unos criterios claros que definan quién es quién en el movimiento de Comercio Justo, sus fines, sus objetivos, los productos que comercializan, así como su funcionamiento y desarrollo en España; (2) que, a pesar de las grandes ventajas y posibilidades del Comercio Justo, hay una falta de demanda de estos productos por parte de los consumidores responsables, debido principalmente a la falta de información-comunicación sobre el propio movimiento, y, muy especialmente, a la falta de información sobre los productos, los canales de comercialización, las políticas de precios, las políticas de comunicación, etc., y a la necesidad de que estos productos estén accesibles en los lugares donde los consumidores hacen su compra habitual; y (3) que el Comercio Justo español debe afrontar una serie de desafíos, como son la coordinación entre las diferentes organizaciones que participan en su desarrollo; la sensibilización de los consumidores; la creación de una imagen de marca que defina de una manera clara y sencilla qué es el Comercio Justo; la orientación al cliente y no al producto; y extender la red de comercialización de productos de Comercio Justo a los canales donde los consumidores hacen su compra habitualmente. ABSTRACT Global consumption, the driver of economic growth and development of nations, is not the same for all countries, since its effects have been different on people coming from the North or the South. This is due mainly to two reasons: firstly, because they have developed complex and different lifestyles and aspirations, which have led to significant differences between individuals of one country and another and secondly, because they lack social and ethical values. Given this situation, society as a whole should be aware of this fact, and through responsible consumption and a greater knowledge of trade relations between countries, should opt for consuming products produced with criteria of justice and equity. Fair Trade began as a way to help reach these goals of equity, solidarity, justice and ethics. In the case of Spain it did not start until 20 years later, in the eighties. Although today sales of Fair Trade products are growing at a good rate, they are still below that of other European countries, for four reasons: (1) unawareness of this social movement; (2) the difficult access to these products; (3) insufficient government support; (4) the limited research carried out to analyse Fair Trade from the perspective of demand, resulting in a lack of knowledge about this type of consumer and their purchasing motivations. Based on the above, the present study is designed as an exploratory investigation, aimed at analyzing the profile of consumers and non-consumers of Fair Trade, their motivations for buying and not buying, as well as the variables which influence future purchase intention in both the current consumer segment, and the non-user segment of such products. To carry out this study we have used, on the one hand, a qualitative methodology, to obtain information about the views and attitudes involved in the purchase decision process; and on the other, a quantitative methodology, through an online survey of 6,500 individuals, which provided information through two separate univariate and bivariate descriptive analysis, of the individuals interviewed about the object of this study. To validate the models and contrast hypotheses, we have used the reliability analysis and validation of the selected measurement scales (Cronbach's Alpha); exploratory factor analysis to verify the dimensionality and convergent validity of the measurement scales; confirmatory factor analysis to validate the adequacy of the models of measurement proposed; logistic regression, to verify the validity of the general model of the probability of buying or not buying Fair Trade products; and multiple linear regression to test the validity of specific models in future purchase intention in the segments of buyers and non-buyers. To carry out these analyses, we used SPSS v21 software tools and AMOS. The principal conclusions of the investigation are: (1) the need to establish clear criteria which define who is who in the Fair Trade movement, its goals, objectives, the products they sell, as well as its operation and development in Spain; (2) that despite the great advantages and possibilities of Fair Trade, there is a lack of demand for these products by responsible consumers, mainly due to the lack of information-communication about the movement itself, and especially on the range of products, sales channels, pricing policies, communication policies, etc., and the need for these products to be available in places where consumers make their usual purchase; and (3) that Spanish Fair Trade must address a number of challenges such as: coordination between the different organizations involved in trade development; consumer awareness; creation of a brand image that defines in a clear and simple way what Fair Trade is; focus on the customer rather than the product; and expansion of the network of Fair Trade sales outlets to include the channels where consumers usually make their purchases.
Resumo:
El minuto final de un partido ajustado de baloncesto es un momento crítico que está sujeto a multitud de factores que influyen en su desarrollo. Así, el porcentaje de acierto en los tiros libres durante ese periodo de tiempo va a determinar, en muchas ocasiones, el resultado final del partido. La disminución de rendimiento (drop) en esta faceta de juego en condiciones de presión, puede estar relacionada con múltiples variables propias del contexto deportivo estudiado, como por ejemplo: los segundos restantes de posesión, la situación en el marcador (ir ganando, empatando o perdiendo), la localización del partido (jugar en casa o fuera), la fase de competición (fase regular o eliminatorias) o el nivel del equipo (mejores/peores equipos). Además, las características del jugador que realiza los lanzamientos tienen una gran importancia respecto a su edad y años de experiencia para afrontar los momentos críticos, así como el puesto de juego que ocupa en el equipo. En este sentido, la combinación de factores del contexto y del jugador, permiten interactuar en el rendimiento del lanzador en los momentos finales de partido durante sus lanzamientos de tiro libre. El presente trabajo de tesis doctoral tiene como objetivo encontrar aquellas variables más relacionadas con la disminución de rendimiento del jugador en los tiros libres durante el último minuto de juego, y la última serie de tiros libres en los partidos ajustados de baloncesto. Para alcanzar el objetivo del estudio se analizaron 124 partidos ajustados (diferencias iguales o inferiores a 2 puntos) de todas las competiciones (fase regular, playoff y copa del Rey) de la liga ACB durante las temporadas 2011-2012 a 2014-2015. Para el registro de variables se analizó el porcentaje de acierto en los tiros libres del lanzador en la liga regular, partido completo, último minuto y última serie. De este modo se trató de analizar qué variables del contexto y del jugador permitían explicar el rendimiento en los tiros libres durante el último minuto, y la última serie de tiros libres del partido. Por otro lado, se trató de conocer el grado de asociación entre el descenso del rendimiento (drop) en los momentos finales de partido, y las variables estudiadas del jugador: puesto de juego, edad, y años de experiencia profesional; mientras que las variables situacionales consideradas fueron: fase de competición, localización, clasificación, tiempo restante, y diferencia parcial en el marcador. Para el análisis de los datos se realizaron dos modelos estadísticos: 1º) un modelo de regresión lineal múltiple para conocer el efecto de las variables independientes en el porcentaje de aciertos del lanzador en el último minuto, y en la última serie de tiros libres del partido; y 2º) un análisis de regresión logística binomial para analizar la relación existente entre la probabilidad de tener un drop (disminución del rendimiento) y las características del lanzador, y las variables situacionales. Los resultados del modelo de regresión lineal múltiple mostraron efectos negativos significativos en el porcentaje de acierto en los tiros libres durante el último minuto, cuando los lanzadores son los pívots (-19,45%). Por otro lado, los resultados durante la última serie mostraron el efecto negativo significativo sobre la posición de pívot (- 19,30%) y la diferencia parcial en el marcador (-3,33%, para cada punto de diferencia en el marcador) en el porcentaje de acierto en los tiros libres. Las variables independientes edad, experiencia profesional, clasificación en la liga regular, fase de competición, localización, y tiempo restante, no revelaron efectos significativos en los modelos de regresión lineal. Los resultados de la regresión logística binomial revelaron que las variables experiencia profesional entre 13 y 18 años (OR = 4,63), jugar de alero (OR = 23,01), y jugar de base (OR = 10,68) están relacionadas con una baja probabilidad de disminuir el rendimiento durante el último minuto del partido; mientras que ir ganando, aumenta esta probabilidad (OR = 0,06). Además, los resultados de la última serie mostraron una menor disminución del rendimiento del jugador cuando tiene entre 13 y 18 años de experiencia (OR = 4,28), y juega de alero (OR = 8,06) o base (OR = 6,34). Por el contrario, las variables situacionales relacionadas con esa disminución del rendimiento del jugador son las fases eliminatorias (OR = 0,22) e ir ganando (OR = 0,04). Los resultados principales del estudio mostraron que existe una disminución del rendimiento del jugador en su porcentaje de acierto en los tiros libres durante el último minuto y en la última serie de lanzamientos del partido, y que está relacionada significativamente con la edad, experiencia profesional, puesto de juego del jugador, y diferencia parcial en el marcador. Encontrando relación también con la fase de competición, durante la última serie de tiros libres del partido. Esta información supone una valiosa información para el entrenador, y su aplicación en el ámbito competitivo real. En este sentido, la creación de simulaciones en el apartado de aplicaciones prácticas, permite predecir el porcentaje de acierto en los tiros libres de un jugador durante los momentos de mayor presión del partido, en base a su perfil de rendimiento. Lo que puede servir para realizar una toma de decisiones más idónea, con el objetivo de lograr el mejor resultado. Del mismo modo, orienta el tipo de proceso de entrenamiento que se ha de seguir, en relación a los jugadores más tendentes al drop, con el objetivo de minimizar el efecto de la presión sobre su capacidad para rendir adecuadamente en la ejecución de los tiros libres, y lograr de esta manera un rendimiento más homogéneo en todos los jugadores del equipo en esta faceta del juego, durante el momento crítico del final de partido. ABSTRACT. The final minute of a close game in basketball is a critical moment which is subject to many factors that influence its development. Thus, the success rate in free-throws during that period will determine, in many cases, the outcome of the game. Decrease of performance (drop) in this facet of play under pressure conditions, may be related to studied own multiple sports context variables, such as the remaining seconds of possession, the situation in the score (to be winning, drawing, or losing) the location of the match (playing at home or away), the competition phase (regular season or playoffs) or team level (best/worst teams). In addition, the characteristics of the player are very important related to his age and years of experience to face the critical moments, as well as his playing position into team. In this sense, the combination of factors in context and player, allows interact about performance of shooter in the final moments of the game during his free-throw shooting. The aim of this present doctoral thesis was find the most related variables to player´s drop in free throws in the last minute of the game and the last row of free-throws in closed games of basketball. To achieve the objective of the study, 124 closed games (less or equal than 2 points difference) were analyzed in every copetition in ACB league (regular season, playoff and cup) from 2011-2012 to 2014-2015 seasons. To record the variables, the percentage of success of the shooter in regular season, full game, last minute, and last row were analyzed. This way, it is tried to analyze which player and context variables explain the free-throw performance in last minute and last row of the game. On the other hand, it is tried to determine the degree of association between decrease of performance (drop) of the player in the final moments, and studied player variables: playing position, age, and years of professional experience; while considered situational variables considered were: competition phase, location, classification, remaining time, and score-line. For data analysis were performed two statistical models: 1) A multiple linear regression model to determine the effect of the independent variables in the succsess percentage of shooter at the last minute, and in the last row of free-throws in the game; and 2) A binomial logistic regression analysis to analyze the relationship between the probability of a drop (lower performance) and the characteristics of the shooter and situational variables. The results of multiple linear regression model showed significant negative effects on the free-throw percentage during last minute, when shooters are centers (-19.45%). On the other hand, results in the last series showed the significant negative effect on the center position (-19.30%) and score-line (-3.33% for each point difference in the score) in the free-throw percentage. The independent variables age, professional experience, ranking in the regular season, competition phase, location, and remaining time, revealed no significant effects on linear regression models. The results of the binomial logistic regression showed that the variables professional experience between 13 and 18 years (OR = 4.63), playing forward (OR = 23.01) and playing guard (OR = 10.68) are related to reduce the probability to decrease the performance during the last minute of the game. While wining, increases it (OR = 0.06). Furthermore, the results of the last row showed a reduction in performance degradation when player is between 13 and 18 years of experience (OR = 4.28), and playing forward (OR = 8.06) or guard (OR = 6.34). By contrast, the variables related to the decrease in performance of the player are the knockout phases (OR = 0.22) and wining (OR = 0.04). The main results of the study showed that there is a decrease in performance of the player in the percentage of success in free-throws in the last minute and last row of the game, and it is significantly associated with age, professional experience, and player position. Finding relationship with the competition phase, during last row of free-throws of the game too. This information is a valuable information for the coach, for applying in real competitive environment. In this sense, create simulations in the section of practical applications allows to predict the success rate of free-throw of a player during the most pressing moments of the game, based on their performance profile. What can be used to take more appropriate decisions in order to achieve the best result. Similarly, guides the type of training process must be followed in relation to the most favorable players to drop, in order to minimize the effect of pressure on their ability to perform properly in the execution of the free-throws. And to achieve, in this way, a more consistent performance in all team players in this facet of the game, during the critical moment in the final of the game.
Resumo:
Los objetivos de esta tesis fueron 1) obtener y validar ecuaciones de predicción para determinar in vivo la composición corporal y de la canal de conejos en crecimiento de 25 a 77 días de vida utilizando la técnica de la Impedancia Bioeléctrica (BIA), y 2) evaluar su aplicación para determinar diferencias en la composición corporal y de la canal, así como la retención de nutrientes de animales alimentados con diferentes fuentes y niveles de grasa. El primer estudio se realizó para determinar y después validar, usando datos independientes, las ecuaciones de predicción obtenidas para determinar in vivo la composición corporal de los conejos en crecimiento. Se utilizaron 150 conejos a 5 edades distintas (25, 35, 49, 63 y 77 días de vida), con un rango de pesos entre 231 y 3138 g. Para determinar los valores de resistencia (Rs,) and reactancia (Xc,) se usó un terminal (Model BIA-101, RJL Systems, Detroit, MI USA) con cuatro electrodos. Igualmente se registró la distancia entre electrodos internos (D), la longitud corporal (L) y el peso vivo (PV) de cada animal. En cada edad, los animales fueron molidos y congelados (-20 ºC) para su posterior análisis químico (MS, grasa, proteína, cenizas y EB). El contenido en grasa y energía de los animales se incrementó, mientras que los contenidos en proteína, cenizas y agua de los animales disminuyeron con la edad. Los valores medios de Rs, Xc, impedancia (Z), L y D fueron 83.5 ± 23.1 , 18.2 ± 3.8 , 85.6 ± 22.9 , 30.6 ± 6.9 cm y 10.8 ± 3.1 cm. Se realizó un análisis de regresión lineal múltiple para determinar las ecuaciones de predicción, utilizando los valores de PV, L and Z como variables independientes. Las ecuaciones obtenidas para estimar los contenidos en agua (g), PB (g), grasa (g), cenizas (g) and EB (MJ) tuvieron un coeficiente de determinación de (R2) de 0.99, 0.99, 0.97, 0.98 y 0.99, y los errores medios de predicción relativos (EMPR) fueron: 2.79, 6.15, 24.3, 15.2 y 10.6%, respectivamente. Cuando el contenido en agua se expresó como porcentaje, los valores de R2 y EMPR fueron 0.85 and 2.30%, respectivamente. Al predecir los contenidos en proteína (%MS), grasa (%MS), cenizas (%MS) y energía (kJ/100 g MS), se obtuvieron valores de 0.79, 0.83, 0.71 y 0.86 para R2, y 5.04, 18.9, 12.0 y 3.19% para EMPR. La reactancia estuvo negativamente correlacionada con el contenido en agua, cenizas y PB (r = -0.32, P < 0.0001; r = -0.20, P < 0.05; r = -0.26, P < 0.01) y positivamente correlacionada con la grasa y la energía (r = 0.23 y r = 0.24; P < 0.01). Sin embargo, Rs estuvo positivamente correlacionada con el agua, las cenizas y la PB (r = 0.31, P < 0.001; r = 0.28, P < 0.001; r = 0.37, P < 0.0001) y negativamente con la grasa y la energía (r = -0.36 y r = -0.35; P < 0.0001). Igualmente la edad estuvo negativamente correlacionada con el contenido en agua, cenizas y proteína (r = -0.79; r = -0.68 y r = -0.80; P < 0.0001) y positivamente con la grasa y la energía (r = 0.78 y r = 0.81; P < 0.0001). Se puede concluir que el método BIA es una técnica buena y no invasiva para estimar in vivo la composición corporal de conejos en crecimiento de 25 a 77 días de vida. El objetivo del segundo estudio fue determinar y validar con datos independientes las ecuaciones de predicción obtenidas para estimar in vivo la composición de la canal eviscerada mediante el uso de BIA en un grupo de conejos de 25 a 77 días, así como testar su aplicación para predecir la retención de nutrientes y calcular las eficacias de retención de la energía y del nitrógeno. Se utilizaron 75 conejos agrupados en 5 edades (25, 35, 49, 63 y 77 días de vida) con unos pesos que variaron entre 196 y 3260 g. Para determinar los valores de resistencia (Rs, ) y reactancia (Xc, ) se usó un terminal (Model BIA-101, RJL Systems, Detroit, MI USA) con cuatro electrodos. Igualmente se registró la distancia entre electrodos internos (D), la longitud corporal (L) y el peso vivo (PV) del cada animal. En cada edad, los animales fueron aturdidos y desangrados. Su piel, vísceras y contenido digestivo fueron retirados, y la canal oreada fue pesada y molida para posteriores análisis (MS, grasa, PB, cenizas y EB). Los contenidos en energía y grasa aumentaron mientras que los de agua, cenizas y proteína disminuyeron con la edad. Los valores medios de Rs, Xc, impedancia (Z), L y D fueron 95.9±23.9 , 19.5±4.7 , 98.0±23.8 , 20.6±6.3 cm y 13.7±3.1 cm. Se realizó un análisis de regresión linear múltiple para determinar las ecuaciones de predicción, utilizando los valores de PV, L and Z como variables independientes. Los coeficientes de determinación (R2) de las ecuaciones obtenidas para estimar los contenidos en agua (g), PB (g), grasa (g), cenizas (g) and EB (MJ) fueron: 0.99, 0.99, 0.95, 0.96 y 0.98, mientras que los errores medios de predicción relativos (EMPR) fueron: 4.20, 5.48, 21.9, 9.10 y 6.77%, respectivamente. Cuando el contenido en agua se expresó como porcentaje, los valores de R2 y EMPR fueron 0.79 y 1.62%, respectivamente. Cuando se realizó la predicción de los contenidos en proteína (%MS), grasa (%MS), cenizas (%MS) y energía (kJ/100 g MS), los valores de R2 fueron 0.68, 0.76, 0.66 and 0.82, y los de RMPE: 3.22, 10.5, 5.82 and 2.54%, respectivamente. La reactancia estuvo directamente correlacionada con el contenido en grasa (r = 0.24, P < 0.05), mientras que la resistencia guardó una correlación positiva con los contenidos en agua, cenizas y proteína (r = 0.55, P < 0.001; r = 0.54, P < 0.001; r = 0.40, P < 0.005) y negativa con la grasa y la energía (r = -0.44 y r = -0.55; P < 0.001). Igualmente la edad estuvo negativamente correlacionada con los contenidos en agua, cenizas y PB (r = -0.94; r = -0.85 y r = -0.75; P < 0.0001) y positivamente con la grasa y la energía (r = 0.89 y r = 0.90; P < 0.0001). Se estudió la eficacia global de retención de la energía (ERE) y del nitrógeno (ERN) durante todo el periodo de cebo (35-63 d), Los valores de ERE fueron 20.4±7.29%, 21.0±4.18% and 20.8±2.79% en los periodos 35 a 49, 49 a 63 y 35 a 63 d, respectivamente. ERN fue 46.9±11.7%, 34.5±7.32% y 39.1±3.23% para los mismos periodos. La energía fue retenida en los tejidos para crecimiento con una eficiencia del 52.5% y la eficiencia de retención de la energía como proteína y grasa fue de 33.3 y 69.9% respectivamente. La eficiencia de utilización del nitrógeno para crecimiento fue cercana al 77%. Este trabajo muestra como el método BIA es técnica buena y no invasiva para determinar in vivo la composición de la canal y la retención de nutrientes en conejos en crecimiento de 25 a 77 días de vida. En el tercer estudio, se llevaron a cabo dos experimentos con el fin de investigar los efectos del nivel de inclusión y de la fuente de grasa, sobre los rendimientos productivos, la mortalidad, la retención de nutrientes y la composición corporal total y de la canal eviscerada de conejos en crecimiento de 34 a 63 d de vida. En el Exp. 1 se formularon 3 dietas con un diseño experimental factorial 3 x 2 con el tipo de grasa utilizada: Aceite de Soja (SBO), Lecitinas de Soja (SLO) y Manteca (L) y el nivel de inclusión (1.5 y 4%) como factores principales. El Exp. 2 también fue diseñado con una estructura factorial 3 x 2, pero usando SBO, Aceite de Pescado (FO) y Aceite de Palmiste como fuentes de grasa, incluidas a los mismos niveles que en el Exp. 1. En ambos experimentos 180 animales fueron alojados en jaulas individuales (n=30) y 600 en jaulas colectivas en grupos de 5 animales (n=20). Los animales alimentados con un 4% de grasa añadida tuvieron unos consumos diarios y unos índices de conversión más bajos que aquellos alimentados con las dietas con un 1.5% de grasa. En los animales alojados en colectivo del Exp. 1, el consumo fue un 4.8% más alto en los que consumieron las dietas que contenían manteca que en los animales alimentados con las dietas SBO (P = 0.036). La inclusión de manteca tendió a reducir la mortalidad (P = 0.067) en torno al 60% y al 25% con respecto a las dietas con SBO y SLO, respectivamente. La mortalidad aumentó con el nivel máximo de inclusión de SLO (14% vs. 1%, P < 0.01), sin observarse un efecto negativo sobre la mortalidad con el nivel más alto de inclusión de las demás fuentes de grasa utilizadas. En los animales alojados colectivo del Exp. 2 se encontró una disminución del consumo (11%), peso vivo a 63 d (4.8%) y de la ganancia diaria de peso (7.8%) con la inclusión de aceite de pescado con respecto a otras dietas (P < 0.01). Los dos últimos parámetros se vieron especialmente más reducidos cuando en las dietas se incluyó el nivel más alto de FO (5.6 y 9.5%, respectivamente, (P < 0.01)). Los animales alojados individualmente mostraron unos resultados productivos muy similares. La inclusión de aceite pescado tendió (P = 0.078) a aumentar la mortalidad (13.2%) con respecto al aceite de palmiste (6.45%), siendo intermedia para las dietas que contenían SBO (8.10%). La fuente o el nivel de grasa no afectaron la composición corporal total o de la canal eviscerada de los animales. Un incremento en el nivel de grasa dio lugar a una disminución de la ingesta de nitrógeno digestible (DNi) (1.83 vs. 1.92 g/d; P = 0.068 en Exp. 1 y 1.79 vs. 1.95 g/d; P = 0.014 en Exp. 2). Debido a que el nitrógeno retenido (NR) en la canal fue similar para ambos niveles (0.68 g/d (Exp. 1) y 0.71 g/d (Exp. 2)), la eficacia total de retención del nitrógeno (ERN) aumentó con el nivel máximo de inclusión de grasa, pero de forma significativa únicamente en el Exp. 1 (34.9 vs. 37.8%; P < 0.0001), mientras que en el Exp. 2 se encontró una tendencia (36.2 vs. 38.0% en Exp. 2; P < 0.064). Como consecuencia, la excreción de nitrógeno en heces fue menor en los animales alimentados con el nivel más alto de grasa (0.782 vs. 0.868 g/d; P = 0.0001 en Exp. 1, y 0.745 vs. 0.865 g/d; P < 0.0001 en Exp.2) al igual que el nitrógeno excretado en orina (0.702 vs. 0.822 g/d; P < 0.0001 en Exp. 1 y 0.694 vs. 0.7999 g/d; P = 0.014 en Exp.2). Aunque no hubo diferencias en la eficacia total de retención de la energía (ERE), la energía excretada en heces disminuyó al aumentar el nivel de inclusión de grasa (142 vs. 156 Kcal/d; P = 0.0004 en Exp. 1 y 144 vs. 154 g/d; P = 0.050 en Exp. 2). Sin embargo, la energía excretada como orina y en forma de calor fue mayor en el los animales del Exp. 1 alimentados con el nivel más alto de grasa (216 vs. 204 Kcal/d; P < 0.017). Se puede concluir que la manteca y el aceite de palmiste pueden ser considerados como fuentes alternativas al aceite de soja debido a la reducción de la mortalidad, sin efectos negativos sobre los rendimientos productivos o la retención de nutrientes. La inclusión de aceite de pescado empeoró los rendimientos productivos y la mortalidad durante el periodo de crecimiento. Un aumento en el nivel de grasa mejoró el índice de conversión y la eficacia total de retención de nitrógeno. ABSTRACT The aim of this Thesis is: 1) to obtain and validate prediction equations to determine in vivo whole body and carcass composition using the Bioelectrical Impedance (BIA) method in growing rabbits from 25 to 77 days of age, and 2) to study its application to determine differences on whole body and carcass chemical composition, and nutrient retention of animals fed different fat levels and sources. The first study was conducted to determine and later validate, by using independent data, the prediction equations obtained to assess in vivo the whole body composition of growing rabbits. One hundred and fifty rabbits grouped at 5 different ages (25, 35, 49, 63 and 77 days) and weighing from 231 to 3138 g were used. A four terminal body composition analyser was used to obtain resistance (Rs, ) and reactance (Xc, ) values (Model BIA-101, RJL Systems, Detroit, MI USA). The distance between internal electrodes (D, cm), body length (L, cm) and live BW of each animal were also registered. At each selected age, animals were slaughtered, ground and frozen (-20 ºC) for later chemical analyses (DM, fat, CP, ash and GE). Fat and energy body content increased with the age, while protein, ash, and water decreased. Mean values of Rs, Xc, impedance (Z), L and D were 83.5 ± 23.1 , 18.2 ± 3.8 , 85.6 ± 22.9 , 30.6 ± 6.9 cm and 10.8 ± 3.1 cm. A multiple linear regression analysis was used to determine the prediction equations, using BW, L and Z data as independent variables. Equations obtained to estimate water (g), CP (g), fat (g), ash (g) and GE (MJ) content had, respectively, coefficient of determination (R2) values of 0.99, 0.99, 0.97, 0.98 and 0.99, and the relative mean prediction error (RMPE) was: 2.79, 6.15, 24.3, 15.2 and 10.6%, respectively. When water was expressed as percentage, the R2 and RMPE were 0.85 and 2.30%, respectively. When prediction of the content of protein (%DM), fat (%DM), ash (%DM) and energy (kJ/100 g DM) was done, values of 0.79, 0.83, 0.71 and 0.86 for R2, and 5.04, 18.9, 12.0 and 3.19% for RMPE, respectively, were obtained. Reactance was negatively correlated with water, ash and CP content (r = -0.32, P < 0.0001; r = -0.20, P < 0.05; r = -0.26, P < 0.01) and positively correlated with fat and GE (r = 0.23 and r = 0.24; P < 0.01). Otherwise, resistance was positively correlated with water, ash and CP (r = 0.31, P < 0.001; r = 0.28, P < 0.001; r = 0.37, P < 0.0001) and negatively correlated with fat and energy (r = -0.36 and r = -0.35; P < 0.0001). Moreover, age was negatively correlated with water, ash and CP content (r = -0.79; r = -0.68 and r = -0.80; P < 0.0001) and positively correlated with fat and energy (r = 0.78 and r = 0.81; P < 0.0001). It could be concluded that BIA is a non-invasive good method to estimate in vivo whole body composition of growing rabbits from 25 to 77 days of age. The aim of the second study was to determine and validate with independent data, the prediction equations obtained to estimate in vivo carcass composition of growing rabbits by using the results of carcass chemical composition and BIA values in a group of rabbits from 25 to 77 days. Also its potential application to predict nutrient retention and overall energy and nitrogen retention efficiencies was analysed. Seventy five rabbits grouped at 5 different ages (25, 35, 49, 63 and 77 days) with weights ranging from 196 to 3260 g were used. A four terminal body composition analyser (Model BIA-101, RJL Systems, Detroit, MI USA) was used to obtain resistance (Rs, ) and reactance (Xc, ) values. The distance between internal electrodes (D, cm), body length (L, cm) and live weight (BW, g) were also registered. At each selected age, all the animals were stunned and bled. The skin, organs and digestive content were removed, and the chilled carcass were weighed and processed for chemical analyses (DM, fat, CP, ash and GE). Energy and fat increased with the age, while CP, ash, and water decreased. Mean values of Rs, Xc, impedance (Z), L and D were 95.9±23.9 , 19.5±4.7 , 98.0±23.8 , 20.6±6.3 cm y 13.7±3.1 cm. A multiple linear regression analysis was done to determine the equations, using BW, L and Z data as parameters. Coefficient of determination (R2) of the equations obtained to estimate water (g), CP (g), fat (g), ash (g) and GE (MJ) content were: 0.99, 0.99, 0.95, 0.96 and 0.98, and relative mean prediction error (RMPE) were: 4.20, 5.48, 21.9, 9.10 and 6.77%, respectively. When water content was expressed as percentage, the R2 and RMPE were 0.79 and 1.62%, respectively. When prediction of protein (%DM), fat (%DM), ash (%DM) and energy (kJ/100 g DM) content was done, R2 values were 0.68, 0.76, 0.66 and 0.82, and RMPE: 3.22, 10.5, 5.82 and 2.54%, respectively. Reactance was positively correlated with fat content (r = 0.24, P < 0.05) while resistance was positively correlated with water, ash and protein carcass content (r = 0.55, P < 0.001; r = 0.54, P < 0.001; r = 0.40, P < 0.005) and negatively correlated with fat and energy (r = -0.44 and r = -0.55; P < 0.001). Moreover, age was negatively correlated with water, ash and CP content (r = -0.97, r = -0.95 and r = -0.89, P < 0.0001) and positively correlated with fat and GE (r = 0.95 and r = 0.97; P < 0.0001). In the whole growing period (35-63 d), overall energy retention efficiency (ERE) and nitrogen retention efficiency (NRE) were studied. The ERE values were 20.4±7.29%, 21.0±4.18% and 20.8±2.79%, from 35 to 49, 49 to 63 and from 35 to 63 d, respectively. NRE was 46.9±11.7%, 34.5±7.32% and 39.1±3.23% for the same periods. Energy was retained in body tissues for growth with an efficiency of approximately 52.5% and efficiency of the energy for protein and fat retention was 33.3 and 69.9%, respectively. Efficiency of utilization of nitrogen for growth was near to 77%. This work shows that BIA it’s a non-invasive and good method to estimate in vivo carcass composition and nutrient retention of growing rabbits from 25 to 77 days of age. In the third study, two experiments were conducted to investigate the effect of the fat addition and source, on performance, mortality, nutrient retention, and the whole body and carcass chemical composition of growing rabbits from 34 to 63 d. In Exp. 1 three diets were arranged in a 3 x 2 factorial structure with the source of fat: Soybean oil (SBO), Soya Lecithin Oil (SLO) and Lard (L) and the dietary fat inclusion level (1.5 and 4%) as the main factors. Exp. 2 had also arranged as a 3 x 2 factorial design, but using SBO, Fish Oil (FO) and Palmkernel Oil (PKO) as fat sources, and included at the same levels than in Exp. 1. In both experiments 180 animals were allocated in individual cages (n=30) and 600 in collectives cages, in groups of 5 animals (n=20). Animals fed with 4% dietary fat level showed lower DFI and FCR than those fed diets with 1.5%. In collective housing of Exp. 1, DFI was a 4.8% higher in animals fed with diets containing lard than SBO (P = 0.036), being intermediate for diet with SLO. Inclusion of lard also tended to reduce mortality (P = 0.067) around 60% and 25% with respect SBO and SLO diets, respectively. Mortality increased with the greatest level of soya lecithin (14% vs. 1%, P < 0.01). In Exp. 2 a decrease of DFI (11%), BW at 63 d (4.8%) and DWG (7.8%) were observed with the inclusion of fish oil with respect the other two diets (P < 0.01). These last two traits impaired with the highest level of fish oil (5.6 and 9.5%, respectively, (P < 0.01)). Animals housed individually showed similar performance results. The inclusion of fish oil also tended to increase (P = 0.078) mortality (13.2%) with respect palmkernel oil (6.45%), being mortality of SBO intermediate (8.10%). Fat source and level did not affect the whole body or carcass chemical composition. An increase of the fat sources addition led to a decrease of the digestible nitrogen intake (DNi) (1.83 vs. 1.92 g/d; P = 0.068 in Exp. 1 and 1.79 vs. 1.95 g/d; P = 0.014 in Exp. 2). As the nitrogen retained (NR) in the carcass was similar for both fat levels (0.68 g/d (Exp. 1) and 0.71 g/d (Exp. 2)), the overall efficiency of N retention (NRE) increased with the highest level of fat, but only reached significant level in Exp. 1 (34.9 vs. 37.8%; P < 0.0001), while in Exp. 2 a tendency was found (36.2 vs. 38.0% in Exp. 2; P < 0.064). Consequently, nitrogen excretion in faeces was lower in animals fed with the highest level of fat (0.782 vs. 0.868 g/d; P = 0.0001 in Exp. 1, and 0.745 vs. 0.865 g/d; P < 0.0001 in Exp.2). The same effect was observed with the nitrogen excreted as urine (0.702 vs. 0.822 g/d; P < 0.0001 in Exp. 1 and 0.694 vs. 0.7999 g/d; P = 0.014 in Exp.2). Although there were not differences in ERE, the energy excreted in faeces decreased as fat level increased (142 vs. 156 Kcal/d; P = 0.0004 in Exp. 1 and 144 vs. 154 g/d; P = 0.050 in Exp. 2). In Exp. 1 the energy excreted as urine and heat production was significantly higher when animals were fed with the highest level of dietary fat (216 vs. 204 Kcal/d; P < 0.017). It can be concluded that lard and palmkernel oil can be considered as alternative sources to soybean oil due to the reduction of the mortality, without negative effects on performances or nutrient retention. Inclusion of fish impaired animals´ productivity and mortality. An increase of the dietary fat level improved FCR and overall protein efficiency retention.
Resumo:
Esta Tesis tiene como objetivo demostrar que los programas de preservación del patrimonio, durante su fase de implementación, deben someterse a un análisis multidisciplinar que haga un balance de su ejecución. Dicho análisis permitirá identificar resultados significativos, capaces de fundamentar la rectificación de las bases conceptuales de la política pública en cuestión. Este reajuste podrá darse, por lo tanto, durante su vigencia y, de forma más relevante, posteriormente, sus motivos y resultados permitirán elaborar nuevas estrategias que serán aplicadas en futuros programas de intervención. Por otro lado se indagó, además, si las ciudades participantes en un programa nacional de preservación del patrimonio, regidas por normas y metas comunes, podrían alcanzar resultados diferentes. Para atender a estos objetivos, la investigación se encuentra enfocada a la realidad brasileña, siendo seleccionado como objeto de estudio el Programa Monumenta. Este Programa formó parte de la política pública cultural del Ministerio de Cultura con una importante implicación del Banco Interamericano de Desarrollo. Implementado a partir de 1999, procuró promover un proceso de recuperación urbana sostenible y de preservación del patrimonio de 26 Sitios Históricos Urbanos o Conjuntos de Monumentos Urbanos protegidos por el Instituto del Patrimonio Histórico y Artístico Nacional (Iphan). El Programa contó con el apoyo de la Unesco y del Iphan, así como con la participación de las Administraciones Municipales y/o Estatales, sectores privados y la sociedad civil. Las hipótesis planteadas en esta Tesis Doctoral fueron: (a) el análisis de los resultados en la fase de implementación de un programa de preservación del patrimonio es imprescindible, porque permite extraer conclusiones preliminares y orientar sus reformas; (b) los objetivos a corto plazo establecidos por el Programa Monumenta fueron alcanzados de modo diferenciado en las distintas ciudades beneficiadas; (c) a pesar de las diferencias, el Programa Monumenta presentó resultados preliminares positivos y significativos en la preservación del patrimonio histórico urbano brasileño. Los procedimientos metodológicos se centraron en un análisis cuantitativo, cualitativo y comparativo de los resultados alcanzados por tres ciudades beneficiadas por el Programa Monumenta, seleccionadas según su tamaño poblacional: Pelotas, Porto Alegre (Estado de Rio Grande do Sul) y São Francisco do Sul (Estado de Santa Catarina). Estos procedimientos fueron aplicados en los siguientes indicadores: utilización de los equipamientos culturales, características de la población y de los domicilios, variación de las actividades económicas, financiación destinada al sector privado para la recuperación de inmuebles y el fomento de la seguridad urbana. La Tesis ha englobado discusiones y conceptos abordados en las disciplinas de la Sociología Urbana, Geografía Urbana, Historia, Economía y Estadística de modo que se atribuye al objeto de investigación una visión interdisciplinar que ayudará a la comprensión de la teoría y la práctica preservacionistas. El análisis de la varianza, la regresión lineal y el análisis factorial fueron las herramientas estadísticas aplicadas sobre los datos con el objetivo de constatar la significación de los resultados y la relación de correspondencia entre algunas variables. Esta Tesis contribuye a la elaboración de una metodología analítica que puede ser aplicada en el cálculo de la superficie ocupada por las actividades económicas, con base en el método estadístico del Diagrama de Caja y Bigotes, de John Wilder Tukey. Las conclusiones corroboran las hipótesis planteadas y pretenden contribuir al diseño de las nuevas políticas públicas de preservación de sitios históricos de carácter urbano, enfatizando, con ello, la necesidad de evaluaciones más profundas de los resultados durante su fase de implementación. ---------------------------------------------------------------------------------- RESUMO--------------------------------------------------------------------------- A presente Tese apresenta como objetivo principal demonstrar que os programas de preservação do patrimônio histórico, durante a sua fase de implementação, necessitam de uma análise multidisciplinar sobre a sua execução. Essa análise permite identificar resultados significativos, capazes de fundamentar a retificação das bases conceituais da política pública em questão. A correção poderá, portanto, ser realizada tanto durante a sua vigência como posteriormente, ao permitir a elaboração de novas estratégias a serem aplicadas nos futuros programas de intervenção. Por outro lado, indagou-se se cidades participantes de um mesmo programa nacional de preservação do patrimônio histórico, regidas por normas e metas comuns, poderiam alcançar resultados não similares. Para atender tais objetivos, a investigação enfoca a realidade brasileira, tendo sido selecionado o Programa Monumenta como objeto de estudo. Esse Programa fez parte de uma política pública cultural do Ministério da Cultura, que atuou em parceria com o Banco Interamericano de Desenvolvimento. Implantado em nível nacional, a partir de 1999, visava promover um processo de recuperação urbana sustentável, bem como a preservação do patrimônio de 26 Sítios Urbanos Históricos ou Conjuntos de Monumentos Urbanos, protegidos pelo Instituto do Patrimônio Histórico e Artístico Nacional (Iphan). O Programa contou com o apoio da Unesco e do Iphan, além da participação das Administrações Municipais e/ou Estaduais, setores privados e sociedade civil. As hipóteses estabelecidas nesta Tese Doutoral foram: (a) a análise dos resultados na fase de implementação de um programa de preservação do patrimônio é imprescindível, pois permite extrair conclusões preliminares e orientar as suas reformulações; (b) os objetivos em curto prazo, estabelecidos pelo Programa Monumenta, foram alcançados de modo diferente pelas cidades beneficiadas; (c) apesar das diferenças, o Programa Monumenta apresentou resultados preliminares positivos e significativos sobre a preservação do patrimônio histórico urbano brasileiro. Os procedimentos metodológicos se centraram em análises quantitativa, qualitativa e comparativa dos resultados alcançados em três cidades beneficiadas pelo Programa Monumenta, selecionadas de acordo com o tamanho populacional: Pelotas, Porto Alegre (Estado do Rio Grande do Sul) e São Francisco do Sul (Estado de Santa Catarina). Esses procedimentos foram aplicados nos seguintes indicadores: utilização dos equipamentos culturais, características da população e dos domicílios, atividades econômicas, financiamento destinado ao setor privado para a recuperação dos imóveis e, ainda, o fomento da segurança urbana. A Tese inclui discussões e conceitos abordados nas disciplinas de Sociologia Urbana, Geografia Urbana, História, Economia e Estatística, de modo a atribuir ao objeto de investigação uma visão interdisciplinar e uma compreensão entre a teoria e a prática preservacionista. A análise de variância, regressão linear e análise fatorial foram as técnicas estatísticas aplicadas sobre os dados, com o objetivo de constatar a significação dos resultados e a relação de correspondência entre algumas variáveis. Esta Tese contribui com a elaboração de uma metodologia aplicada no cálculo da superfície ocupada pelas atividades econômicas, utilizando como método estatístico o Diagrama de Caixa e Bigodes, de John Wilder Tukey. As conclusões corroboram com as hipóteses estabelecidas e pretendem contribuir para o desenho de novas políticas públicas de preservação de sítios históricos de caráter urbano, enfatizando a necessidade de avaliações mais profundas dos resultados durante a sua fase de implementação. ---------------------------------------------------------------------------------- ABSTRACT ---------------------------------------------------------------------------------- The main goal of this PhD. Thesis is to demonstrate that a multidisciplinary analysis is needed during the implementation phase of preservation of heritage programmes. Such analysis allows the identification of significant results, which in turn can serve as the foundation for the conceptual bases of the public policy at hand. Thus, any corrections can be made both during the programme and afterward, by introducing new strategies to be applied in future intervention programmes. On the other hand, this project also asks whether cities participating in the same national preservation of heritage programme with common rules and goals can achieve distinct results. In order to meet these objectives, the project chose Brazil as its focus and Monumenta Programme for its object of study. This Programme is part of the Ministry of Culture’s public cultural policy, and was developed with cooperation by the Inter-American Development Bank. Implemented at the national level in 1999, the Programme aimed at promoting a process of sustainable urban renewal and the preservation of 26 urban historic sites or urban monumental ensembles, protected by the National Historic and Artistic Heritage Institute (IPHAN). UNESCO and IPHAN supported the Programme, and participants included municipal and state offices, private businesses, and local residents. The hypotheses established in this Doctoral Thesis were: (a) the analysis of the results in the implementation phase of a cultural public policy is imperative, because it enables preliminary conclusions to be drawn and orientate reforms; (b) the short-term objectives set out in the Monumenta Programme were achieved differently in the benefitted cities; (c) despite the differences, the Monumenta Programme displayed significant positive preliminary results in the conservation of the urban historic heritage in Brazil. Methodology procedures centered around quantitative, qualitative, and comparative analyses of the results achieved in three benefiting cities, selected according to population size: Pelotas, Porto Alegre (Rio Grande do Sul State) and São Francisco do Sul (Santa Catarina State). These procedures were applied to the following indicators: the use of the cultural facilities, characteristics of the population and the residential housing, variation of the economic activities, financing destined for the recovery of real estate, and promoting urban safety. The Thesis includes discussions and concepts addressed in urban sociology, urban geography, history, economics, and statistics, in order to examine the object of study with an interdisciplinary eye and an understanding between preservation theory and practice. Variance analysis, linear regression, and factorial analysis were the statistical techniques applied to the data, with the goal of defining the significance of the results and the correspondence ratio between some of the variables. This Thesis attempted to elaborate an applied methodology for calculating the space occupied by economic activities, using John Wilder Tukey's statistical method of Box-and-Whisker Plot. The conclusions corroborated the hypotheses established and are meant to contribute to the design of new public policies of historical site preservation in urban settings, emphasizing the need for deeper evaluations of the results during the implementation phase.
Resumo:
La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.
Los métodos de programación lineal aplicados al análisis en rotura: el caso de los arcos de fábrica.
Resumo:
En este trabajo se presenta una formulación que permite aplicar los métodos de programación lineal, y en particular el método simplex, al análisis de la estática de rotura de cualesquiera estructuras de barras o elementos lineales, que son considerados como bloques rígidos en las regiones no plastificadas. La formulación permite integrar criterios robustos de seguridad y permite abordar, entre otros, los problemas clásicos de rotura de arcos de fábrica, siendo capaz de determinar las alteraciones pésimas a las configuraciones de carga consideradas, basándose en dichos criterios. Como ejemplo se muestra cómo la formulación es capaz de detectar de forma automática que se producirán daños en arcos de fábrica si se procede a su descarga