22 resultados para regresión logística

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En los años recientes se ha producido un rápido crecimiento del comercio internacional en productos semielaborados que son diseñados, producidos y ensamblados en diferentes localizaciones a lo largo de diferentes países, debido principalmente a los siguientes motivos: el desarrollo de las tecnologías de la información, la reducción de los costes de transporte, la liberalización de los mercados de capitales, la armonización de factores institucionales, la integración económica regional que implica la reducción y la eliminación de las barreras al comercio, el desarrollo económico de los países emergentes, el uso de economías de escala, así como una desregulación del comercio internacional. Todo ello ha incrementado la competencia a nivel mundial en los mercados y ha posibilitado a las compañías tener más facilidad de acceso a potenciales mercados, así como a la adquisición de capacidades y conocimientos en otros países y a la realización de alianzas estratégicas internacionales con terceros, creando un entorno con mayor incertidumbre y más exigente para las compañías que componen una industria, y que tiene consecuencias directas en las operaciones de las compañías y en la organización de su producción. Las compañías, para adaptarse, ser competitivas y beneficiarse de este nuevo escenario globalizado y más competitivo, han externalizado partes del proceso productivo hacia proveedores especializados, creando un nuevo mercado intermedio que divide el proceso productivo, anteriormente integrado en las compañías que conforman una industria, entre dos conjuntos de empresas especializadas en esa industria. Dicho proceso suele ocurrir conservando la industria en que tiene lugar, los mismos servicios y productos, la tecnología empleada y las compañías originales que la conformaban previamente a la desintegración vertical. Todo ello es así debido a que es beneficioso tanto para las compañías originales de la industria como para las nuevas compañías de este mercado intermedio por diversos motivos. La desintegración vertical en una industria tiene unas consecuencias que la transforman completamente, así como la forma de operar de las compañías que la integran, incluso para aquellas que permanecen verticalmente integradas. Una de las características más importantes de esta desintegración vertical en una industria es la posibilidad que tiene una compañía de adquirir a una tercera la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por la compañía adquiriente con la práctica del outsourcing; así mismo, una compañía puede realizar la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por una tercera compañía con la práctica de la fragmentación. El principal objetivo de la presente investigación es el estudio de los motivos, los facilitadores, los efectos, las consecuencias y los principales factores significativos, microeconómicos y macroeconómicos, que desencadenan o incrementan la práctica de la desintegración vertical en una industria; para ello, la investigación se divide en dos líneas completamente diferenciadas: el estudio de la práctica del outsourcing y, por otro lado, el estudio de la fragmentación por parte de las compañías que componen la industria del automóvil en España, puesto que se trata de una de las industrias más desintegradas verticalmente y fragmentadas, y este sector posee una gran importancia en la economía del país. En primer lugar, se hace una revisión de la literatura existente relativa a los siguientes aspectos: desintegración vertical, outsourcing, fragmentación, teoría del comercio internacional, historia de la industria del automóvil en España y el uso de las aglomeraciones geográficas y las tecnologías de la información en el sector del automóvil. La metodología empleada en cada uno de ellos ha sido diferente en función de la disponibilidad de los datos y del enfoque de investigación: los factores microeconómicos, utilizando el outsourcing, y los factores macroeconómicos, empleando la fragmentación. En el estudio del outsourcing, se usa un índice basado en las compras externas sobre el valor total de la producción. Así mismo, se estudia su correlación y significación con las variables económicas más importantes que definen a una compañía del sector del automóvil, utilizando la técnica estadística de regresión lineal. Aquellas variables relacionadas con la competencia en el mercado, la externalización de las actividades de menor valor añadido y el incremento de la modularización de las actividades de la cadena de valor, han resultado significativas con la práctica del outsourcing. En el estudio de la fragmentación se seleccionan un conjunto de factores macroeconómicos, comúnmente usados en este tipo de investigaciones, relacionados con las principales magnitudes económicas de un país, y un conjunto de factores macroeconómicos, no comúnmente usados en este tipo de investigaciones, relacionados con la libertad económica y el comercio internacional de un país. Se emplea un modelo de regresión logística para identificar qué factores son significativos en la práctica de la fragmentación. De entre todos los factores usados en el modelo, los relacionados con las economías de escala y los costes de servicio han resultado significativos. Los resultados obtenidos de los test estadísticos realizados en el modelo de regresión logística han resultado satisfactorios; por ello, el modelo propuesto de regresión logística puede ser considerado sólido, fiable y versátil; además, acorde con la realidad. De los resultados obtenidos en el estudio del outsourcing y de la fragmentación, combinados conjuntamente con el estado del arte, se concluye que el principal factor que desencadena la desintegración vertical en la industria del automóvil es la competencia en el mercado de vehículos. Cuanto mayor es la demanda de vehículos, más se reducen los beneficios y la rentabilidad para sus fabricantes. Estos, para ser competitivos, diferencian sus productos de la competencia centrándose en las actividades que mayor valor añadido aportan al producto final, externalizando las actividades de menor valor añadido a proveedores especializados, e incrementando la modularidad de las actividades de la cadena de valor. Las compañías de la industria del automóvil se especializan en alguna o varias de estas actividades modularizadas que, combinadas con el uso de factores facilitadores como las economías de escala, las tecnologías de la información, las ventajas de la globalización económica y la aglomeración geográfica de una industria, incrementan y motivan la desintegración vertical en la industria del automóvil, desencadenando la coespecialización en dos sectores claramente diferenciados: el sector de fabricantes de vehículos y el sector de proveedores especializados. Cada uno de ellos se especializa en unas actividades y en unos productos o servicios específicos de la cadena de valor, lo cual genera las siguientes consecuencias en la industria del automóvil: se reducen los costes de transacción en los productos o servicios intercambiados; se incrementan la relación de dependencia entre fabricantes de vehículos y proveedores especializados, provocando un aumento en la cooperación y la coordinación, acelerando el proceso de aprendizaje, posibilitando a ambos adquirir nuevas capacidades, conocimientos y recursos, y creando nuevas ventajas competitivas para ambos; por último, las barreras de entrada a la industria del automóvil y el número de compañías se ven alteradas cambiando su estructura. Como futura línea de investigación, los fabricantes de vehículos tenderán a centrarse en investigar, diseñar y comercializar el producto o servicio, delegando el ensamblaje en manos de nuevos especialistas en la materia, el contract manufacturer; por ello, sería conveniente investigar qué factores motivantes o facilitadores existen y qué consecuencias tendría la implantación de los contract manufacturer en la industria del automóvil. 1.1. ABSTRACT In recent years there has been a rapid growth of international trade in semi-finished products designed, produced and assembled in different locations across different countries, mainly due to the following reasons: development of information technologies, reduction of transportation costs, liberalisation of capital markets, harmonisation of institutional factors, regional economic integration, which involves the reduction and elimination of trade barriers, economic development of emerging countries, use of economies of scale and deregulation of international trade. All these factors have increased competition in markets at a global level and have allowed companies to gain easier access to potential markets and to the acquisition of skills and knowledge in other countries, as well as to the completion of international strategic alliances with third parties, thus creating a more demanding and uncertain environment for these companies constituting an industry, which has a direct impact on the companies' operations and the organization of their production. In order to adapt, be competitive and benefit from this new and more competitive global scenario, companies have outsourced some parts of their production process to specialist suppliers, generating a new intermediate market which divides the production process, previously integrated in the companies that made up the industry, into two sets of companies specialized in that industry. This process often occurs while preserving the industry where it takes place, its same services and products, the technology used and the original companies that formed it prior to vertical disintegration. This is because it is beneficial for both the industry's original companies and the companies belonging to this new intermediate market, for various reasons. Vertical disintegration has consequences which completely transform the industry where it takes place as well as the modus operandi of the companies that are part of it, even of those who remain vertically integrated. One of the most important features of vertical disintegration of an industry is the possibility for a company to acquire from a third one the first part of the production process or a semi-finished product, which will then be finished by the acquiring company through the practice of outsourcing; also, a company can perform the first part of the production process or a semi-finish product, which will then be completed by a third company through the practice of fragmentation. The main objective of this research is to study the motives, facilitators, effects, consequences and major significant microeconomic and macroeconomic factors that trigger or increase the practice of vertical disintegration in a certain industry; in order to do so, research is divided into two completely differentiated lines: on the one hand, the study of the practise of outsourcing and, on the other, the study of fragmentation by companies constituting the automotive industry in Spain, since this is one of the most vertically disintegrated and fragmented industries and this particular sector is of major significance in this country's economy. First, a review is made of the existing literature, on the following aspects: vertical disintegration, outsourcing, fragmentation, international trade theory, history of the automobile industry in Spain and the use of geographical agglomeration and information technologies in the automotive sector. The methodology used for each of these aspects has been different depending on the availability of data and the research approach: the microeconomic factors, using outsourcing, and the macroeconomic factors, using fragmentation. In the study on outsourcing, an index is used based on external purchases in relation to the total value of production. Likewise, their significance and correlation with the major economic variables that define an automotive company are studied, using the statistical technique of linear regression. Variables related to market competition, outsourcing of lowest value-added activities and increased modularisation of the activities of the value chain have turned out to be significant with the practice of outsourcing. In the study of fragmentation, a set of macroeconomic factors commonly used for this type of research, is selected, related to the main economic indicators of a country, as well as a set of macroeconomic factors, not commonly used for this type of research, which are related to economic freedom and the international trade of a certain country. A logistic regression model is used to identify which factors are significant in the practice of fragmentation. Amongst all factors used in the model, those related to economies of scale and service costs have turned out to be significant. The results obtained from the statistical tests performed on the logistic regression model have been successful; hence, the suggested logistic regression model can be considered to be solid, reliable and versatile; likewise, it is in line with reality. From the results obtained in the study of outsourcing and fragmentation, combined with the state of the art, it is concluded that the main factor that triggers vertical disintegration in the automotive industry is competition within the vehicle market. The greater the vehicle demand, the lower the earnings and profitability for manufacturers. These, in order to be competitive, differentiate their products from the competition by focusing on those activities that contribute with the highest added value to the final product, outsourcing the lower valueadded activities to specialist suppliers, and increasing the modularity of the activities of the value chain. Companies in the automotive industry specialize in one or more of these modularised activities which, combined with the use of enabling factors such as economies of scale, information technologies, the advantages of economic globalisation and the geographical agglomeration of an industry, increase and encourage vertical disintegration in the automotive industry, triggering co-specialization in two clearly distinct sectors: the sector of vehicle manufacturers and the specialist suppliers sector. Each of them specializes in certain activities and specific products or services of the value chain, generating the following consequences in the automotive industry: reduction of transaction costs of the goods or services exchanged; growth of the relationship of dependency between vehicle manufacturers and specialist suppliers, which causes an increase in cooperation and coordination, accelerates the learning process, enables both to acquire new skills, knowledge and resources, and creates new competitive advantages for both; finally, barriers to entry the automotive industry and the number of companies are altered, changing their structure. As a future line of research, vehicle manufacturers will tend to focus on researching, designing and marketing the product or service, delegating the assembly in the hands of new specialists in the field, the contract manufacturer; for this reason, it would be useful to investigate what motivating or facilitating factors exist in this respect and what consequences would the implementation of contract manufacturers have in the automotive industry.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El sector ganadero está siendo gradualmente dominado por sistemas intensivos y especializados en los que los factores de producción están controlados y en los que los caracteres productivos son los criterios principales para la selección de especies y razas. Entretanto, muchos de los bienes y servicios que tradicionalmente suministraba el ganado, tales como los fertilizantes, la tracción animal o materias primas para la elaboración vestimenta y calzado están siendo reemplazados por productos industriales. Como consecuencia de ambos cambios, las razas seleccionadas intensivamente, las cuales están estrechamente ligadas a sistemas agrícolas de alta producción y altos insumos, han desplazado a muchas razas autóctonas, en las que la selección prácticamente ha cesado o es muy poco intensa. Actualmente existe una mayor conciencia social sobre la situación de las razas autóctonas y muchas funciones del ganado que previamente habían sido ignoradas están siendo reconocidas. Desde hace algunas décadas, se ha aceptado internacionalmente que las razas de ganado cumplen funciones económicas, socio-culturales, medioambientales y de seguridad alimentaria. Por ello, diferentes organismos internacionales han reconocido que la disminución de los recursos genéticos de animales domésticos (RGADs) es un problema grave y han recomendado su conservación. Aun así, la conservación de RGADs es un tema controvertido por la dificultad de valorar las funciones del ganado. Esta valoración es compleja debido que los RGADs tiene una doble naturaleza privada - pública. Como algunos economistas han subrayado, el ganado es un bien privado, sin embargo debido a algunas de sus funciones, también es un bien público. De esta forma, el aumento del conocimiento sobre valor de cada una de sus funciones facilitaría la toma de decisiones en relación a su conservación y desarrollo. Sin embargo, esta valoración es controvertida puesto que la importancia relativa de las funciones del ganado varía en función del momento, del lugar, de las especies y de las razas. El sector ganadero, debido a sus múltiples funciones, está influenciado por factores técnicos, medioambientales, sociales, culturales y políticos que están interrelacionados y que engloban a una enorme variedad de actores y procesos. Al igual que las funciones del ganado, los factores que afectan a su conservación y desarrollo están fuertemente condicionados por localización geográfica. Asimismo, estos factores pueden ser muy heterogéneos incluso dentro de una misma raza. Por otro lado, es razonable pensar que el ganadero es el actor principal de la conservación de razas locales. Actualmente, las razas locales están siendo Integration of socioeconomic and genetic aspects involved in the conservation of animal genetic resources 5 explotadas por ganaderos muy diversos bajo sistemas de producción también muy diferentes. Por todo ello, es de vital importancia comprender y evaluar el impacto que tienen las motivaciones, y el proceso de toma de decisiones de los ganaderos en la estructura genética de las razas. En esta tesis doctoral exploramos diferentes aspectos sociales, económicos y genéticos involucrados en la conservación de razas locales de ganado vacuno en Europa, como ejemplo de RGADs, esperando contribuir al entendimiento científico de este complejo tema. Nuestro objetivo es conseguir una visión global de los procesos subyacentes en la conservación y desarrollo de estas razas. Pretendemos ilustrar como se pueden utilizar métodos cuantitativos en el diseño y establecimiento de estrategias de conservación y desarrollo de RGADs objetivas y adecuadas. En primer lugar, exploramos el valor económico total (VET) del ganado analizando sus componentes públicos fuera de mercado usando como caso de estudio la raza vacuna Alistana-Sanabresa (AS). El VET de cualquier bien está formado por componentes de uso y de no-uso. Estos últimos incluyen el valor de opción, el valor de herencia y el valor de existencia. En el caso del ganado local, el valor de uso directo proviene de sus productos. Los valores de uso indirecto están relacionados con el papel que cumple las razas en el mantenimiento de los paisajes y cultura rural. El valor de opción se refiere a su futuro uso potencial y el valor de herencia al uso potencial de las generaciones venideras. Finalmente, el valor de existencia está relacionado con el bienestar que produce a la gente saber que existe un recurso específico. Nuestro objetivo fue determinar la importancia relativa que tienen los componentes fuera de mercado sobre el VET de la raza AS. Para ello evaluamos la voluntad de la gente a pagar por la conservación de la AS mediante experimentos de elección (EEs) a través de encuestas. Estos experimentos permiten valorar individualmente los distintos componentes del VET de cualquier bien. Los resultados los analizamos mediante de uso de modelos aleatorios logit. Encontramos que las funciones públicas de la raza AS tienen un valor significativo. Sus valores más importantes son el valor de uso indirecto como elemento cultural Zamorano y el valor de existencia (ambos representaron el 80% de VET). Además observamos que el valor que gente da a las funciones públicas de la razas de ganado dependen de sus características socioeconómicas. Los factores que condicionaron la voluntad a pagar para la conservación de la raza AS fueron el lugar de residencia (ciudad o pueblo), el haber visto animales de la raza o haber consumido sus productos y la actitud de los encuestados ante los conflictos entre el desarrollo económico y el medioambiente. Por otro lado, encontramos que no todo el mundo tiene una visión completa e integrada de todas las funciones públicas de la raza AS. Por este motivo, los programas o actividades de concienciación sobre su estado deberían hacer hincapié en este aspecto. La existencia de valores públicos de la raza AS implica que los ganaderos deberían recibir compensaciones económicas como pago por las funciones públicas que cumple su raza local. Las compensaciones asegurarían un tamaño de población que permitiría que la raza AS siga realizando estas funciones. Un mecanismo para ello podría ser el desarrollo del turismo rural relacionado con la raza. Esto aumentaría el valor de uso privado mientras que supondría un elemento añadido a las estrategias de conservación y desarrollo. No obstante, los ganaderos deben analizar cómo aprovechar los nichos de mercado existentes, así como mejorar la calidad de los productos de la raza prestando especial atención al etiquetado de los mismos. Una vez evaluada la importancia de las funciones públicas de las razas locales de ganado, analizamos la diversidad de factores técnicos, económicos y sociales de la producción de razas locales de ganado vacuno existente en Europa. Con este fin analizamos el caso de quince razas locales de ocho países en el contexto de un proyecto de colaboración internacional. Investigamos las diferencias entre los países para determinar los factores comunes clave que afectan a la viabilidad de las razas locales. Para ello entrevistamos mediante cuestionarios a un total de 355 ganaderos en las quince razas. Como indicador de viabilidad usamos los planes de los ganaderos de variación del tamaño de las ganaderías. Los cuestionarios incluían diferentes aspectos económicos, técnicos y sociales con potencial influencia en las dinámicas demográficas de las razas locales. Los datos recogidos los analizamos mediante distintas técnicas estadísticas multivariantes como el análisis discriminante y la regresión logística. Encontramos que los factores que afectan a la viabilidad de las razas locales en Europa son muy heterogéneos. Un resultado reseñable fue que los ganaderos de algunos países no consideran que la explotación de su raza tenga un alto valor social. Este hecho vuelve a poner de manifiesto la importancia de desarrollar programas Europeos de concienciación sobre la importancia de las funciones que cumplen las razas locales. Además los países analizados presentaron una alta variabilidad en cuanto a la importancia de los mercados locales en la distribución de los productos y en cuanto al porcentaje en propiedad del total de los pastos usados en las explotaciones. Este estudio reflejó la variabilidad de los sistemas y medios de producción (en el sentido socioeconómico, técnico y ecológico) que existe en Europa. Por ello hay que ser cautos en la implementación de las políticas comunes en los diferentes países. También encontramos que la variabilidad dentro de los países puede ser elevada debido a las diferencias entre razas, lo que implica que las políticas nacionales deber ser suficientemente flexibles para adaptarse a las peculiaridades de cada una de las razas. Por otro lado, encontramos una serie de factores comunes a la viabilidad de las razas en los distintos países; la edad de los ganaderos, la colaboración entre ellos y la apreciación social de las funciones culturales, medioambientales y sociales del ganado local. El envejecimiento de los ganaderos de razas locales no es solo un problema de falta de transferencia generacional, sino que también puede suponer una actitud más negativa hacia la inversión en las actividades ganaderas y en una menor capacidad de adaptación a los cambios del sector. La capacidad de adaptación de los ganaderos es un factor crucial en la viabilidad de las razas locales. Las estrategias y políticas de conservación comunes deben incluir las variables comunes a la viabilidad de las razas manteniendo flexibilidad suficiente para adaptarse a las especificidades nacionales. Estas estrategias y políticas deberían ir más allá de compensación económica a los ganaderos de razas locales por la menor productividad de sus razas. Las herramientas para la toma de decisiones ayudan a generar una visión amplia de la conservación y desarrollo de las razas locales. Estas herramientas abordan el diseño de estrategias de conservación y desarrollo de forma sistemática y estructurada. En la tercera parte de la tesis usamos una de estas herramientas, el análisis DAFO (Debilidades, Amenazas, Fortalezas y Oportunidades), con este propósito, reconociendo que la conservación de RGADs depende de los ganaderos. Desarrollamos un análisis DAFO cuantitativo y lo aplicamos a trece razas locales de ganado vacuno de seis países europeos en el contexto del proyecto de colaboración mencionado anteriormente. El método tiene cuatro pasos: 1) la definición del sistema; 2) la identificación y agrupación de los factores influyentes; 3) la cuantificación de la importancia de dichos factores y 4) la identificación y priorización de estrategias. Identificamos los factores utilizando multitud de agentes (multi-stakeholder appproach). Una vez determinados los factores se agruparon en una estructura de tres niveles. La importancia relativa de los cada uno de los factores para cada raza fue determinada por grupos de expertos en RGADs de los países integrados en el citado proyecto. Finalmente, desarrollamos un proceso de cuantificación para identificar y priorizar estrategias. La estructura de agrupación de factores permitió analizar el problema de la conservación desde el nivel general hasta el concreto. La unión de análisis específicos de cada una de las razas en un análisis DAFO común permitió evaluar la adecuación de las estrategias a cada caso concreto. Identificamos un total de 99 factores. El análisis reveló que mientras los factores menos importantes son muy consistentes entre razas, los factores y estrategias más relevantes son muy heterogéneos. La idoneidad de las estrategias fue mayor a medida que estas se hacían más generales. A pesar de dicha heterogeneidad, los factores influyentes y estrategias más importantes estaban ligados a aspectos positivos (fortalezas y oportunidades) lo que implica que el futuro de estas razas es prometedor. Los resultados de nuestro análisis también confirmaron la gran relevancia del valor cultural de estas razas. Las factores internos (fortalezas y debilidades) más importantes estaban relacionadas con los sistemas de producción y los ganaderos. Las oportunidades más relevantes estaban relacionadas con el desarrollo y marketing de nuevos productos mientras que las amenazas más importantes se encontraron a la hora de vender los productos actuales. Este resultado implica que sería fructífero trabajar en la motivación y colaboración entre ganaderos así como, en la mejora de sus capacidades. Concluimos que las políticas comunes europeas deberían centrarse en aspectos generales y ser los suficientemente flexibles para adaptarse a las singularidades de los países y las razas. Como ya se ha mencionado, los ganaderos juegan un papel esencial en la conservación y desarrollo de las razas autóctonas. Por ello es relevante entender que implicación puede tener la heterogeneidad de los mismos en la viabilidad de una raza. En la cuarta parte de la tesis hemos identificado tipos de ganaderos con el fin de entender cómo la relación entre la variabilidad de sus características socioeconómicas, los perfiles de las ganaderías y las dinámicas de las mismas. El análisis se ha realizado en un contexto sociológico, aplicando los conceptos de capital cultural y económico. Las tipologías se han determinado en función de factores socioeconómicos y culturales indicadores del capital cultural y capital económico de un individuo. Nuestro objetivo era estudiar si la tipología socioeconómica de los ganaderos afecta al perfil de su ganadería y a las decisiones que toman. Entrevistamos a 85 ganaderos de la raza Avileña-Negra Ibérica (ANI) y utilizamos los resultados de dichas entrevistas para ilustrar y testar el proceso. Definimos los tipos de ganaderos utilizando un análisis de clúster jerarquizado con un grupo de variables canónicas que se obtuvieron en función de cinco factores socioeconómicos: el nivel de educación del ganadero, el año en que empezó a ser ganadero de ANI, el porcentaje de los ingresos familiares que aporta la ganadería, el porcentaje de propiedad de la tierra de la explotación y la edad del ganadero. La tipología de los ganaderos de ANI resultó ser más compleja que en el pasado. Los resultados indicaron que los tipos de ganaderos variaban en muchos aspectos socioeconómicos y en los perfiles de sus Integration of socioeconomic and genetic aspects involved in the conservation of animal genetic resources 9 ganaderías. Los tipos de ganaderos determinados toman diferentes decisiones en relación a la modificación del tamaño de su ganadería y a sus objetivos de selección. Por otro lado, reaccionaron de forma diferente ante un hipotético escenario de reducción de las compensaciones económicas que les planteamos. En este estudio hemos visto que el capital cultural y el económico interactúan y hemos explicado como lo hacen en los distintos tipos de ganaderos. Por ejemplo, los ganaderos que poseían un mayor capital económico, capital cultural formal y capital cultural adquirido sobre la raza, eran los ganaderos cuyos animales tenían una mayor demanda por parte de otros ganaderos, lo cual podría responder a su mayor prestigio social dentro de la raza. Uno de los elementos claves para el futuro de la raza es si este prestigio responde a una superioridad genética de las animales. Esto ocurriría si los ganaderos utilizaran las herramientas que tienen a su disposición a la hora de seleccionar animales. Los tipos de ganaderos identificados mostraron también claras diferencias en sus formas de colaboración y en su reacción a una hipotética variación de las compensaciones económicas. Aunque algunos tipos de ganaderos mostraron un bajo nivel de dependencia a estas compensaciones, la mayoría se manifestaron altamente dependientes. Por ello cualquier cambio drástico en la política de ayudas puede comprometer el desarrollo de las razas autóctonas. La adaptación las políticas de compensaciones económicas a la heterogeneidad de los ganaderos podría aumentar la eficacia de las mismas por lo que sería interesante explorar posibilidades a este respecto. Concluimos destacando la necesidad de desarrollar políticas que tengan en cuenta la heterogeneidad de los ganaderos. Finalmente abordamos el estudio de la estructura genética de poblaciones ganaderas. Las decisiones de los ganaderos en relación a la selección de sementales y su número de descendientes configuran la estructura demográfica y genética de las razas. En la actualidad existe un interés renovado por estudiar las estructuras poblacionales debido a la influencia potencial de su estratificación sobre la predicción de valores genómicos y/o los análisis de asociación a genoma completo. Utilizamos dos métodos distintos, un algoritmo de clústeres basados en teoría de grafos (GCA) y un algoritmo de clustering bayesiano (STRUCTURE) para estudiar la estructura genética de la raza ANI. Prestamos especial atención al efecto de la presencia de parientes cercanos en la población y de la diferenciación genética entre subpoblaciones sobre el análisis de la estructura de la población. En primer lugar evaluamos el comportamiento de los dos algoritmos en poblaciones simuladas para posteriormente analizar los genotipos para 17 microsatélites de 13343 animales de 57 ganaderías distintas de raza ANI. La ANI es un ejemplo de raza con relaciones complejas. Por otro lado, utilizamos el archivo de pedigrí de la raza para estudiar el flujo de genes, calculando, entre otras cosas, la contribución de cada ganadería a la constitución genética de la raza. En el caso de las poblaciones simuladas, cuando el FST entre subpoblaciones fue suficientemente alto, ambos algoritmos, GCA y STRUCTURE, identificaron la misma estructura genética independientemente de que existieran o no relaciones familiares. Por el contrario, cuando el grado de diferenciación entre poblaciones fue bajo, el STRUCTURE identificó la estructura familiar mientras que GCA no permitió obtener ningún resultado concluyente. El GCA resultó ser un algoritmo más rápido y eficiente para de inferir la estructura genética en poblaciones con relaciones complejas. Este algoritmo también puede ser usado para reducir el número de clústeres a testar con el STRUTURE. En cuanto al análisis de la población de ANI, ambos algoritmos describieron la misma estructura, lo cual sugiere que los resultados son robustos. Se identificaron tres subpoblaciones diferenciadas que pudieran corresponderse con tres linajes distintos. Estos linajes estarían directamente relacionados con las ganaderías que han tenido una mayor contribución a la constitución genética de la raza. Por otro lado, hay un conjunto muy numeroso de individuos con una mezcla de orígenes. La información molecular describe una estructura estratificada de la población que se corresponde con la evolución demográfica de la raza. Es esencial analizar en mayor profundidad la composición de este último grupo de animales para determinar cómo afecta a la variabilidad genética de la población de ANI. SUMMARY Summary Livestock sector is gradually dominated by intensive and specialized systems where the production environment is controlled and the production traits are the main criteria for the selection of species and breeds. In the meantime, the traditional use of domestic animals for draught work, clothes and manure has been replaced by industrial products. As a consequence of both these changes, the intensively selected breeds closely linked with high-input highoutput production systems have displaced many native breeds where the selection has practically ceased or been very mild. People are now more aware of the state of endangerment among the native breeds and the previously ignored values of livestock are gaining recognition. For some decades now, the economic, socio-cultural, environmental and food security function of livestock breeds have been accepted worldwide and their loss has been recognized as a major problem. Therefore, the conservation of farm animal genetic resources (FAnGR) has been recommended. The conservation of FAnGR is controversial due to the complexity of the evaluation of its functions. This evaluation is difficult due to the nature of FAnGR both as private and public good. As some economists have highlighted, livestock animals are private goods, however, they are also public goods by their functions. Therefore, there is a need to increase the knowledge about the value of all livestock functions since to support the decision-making for the sustainable conservation and breeding of livestock. This is not straightforward since the relative importance of livestock functions depends on time, place, species and breed. Since livestock play a variety of roles, their production is driven by interrelated and everchanging economic, technical, environmental, social, cultural and political elements involving an enormous range of stakeholders. Not only FAnGR functions but also the importance of factors affecting the development and conservation of FAnGR can be very different across geographical areas. Furthermore, heterogeneity can be found even within breeds. Local breeds are nowadays raised by highly diverse farmers in equally diverse farms. It is quite reasonable to think that farmer is the major actor in the in situ conservation of livestock breeds. Thus, there is a need to understand the farmers’ motivations, decision making processes and the impact of their decisions on the genetic structure of breeds. In this PhD thesis we explore different social, economic and genetic aspects involved in the conservation of local cattle breeds, i.e. FAnGR, in Europe seeking to contribute to the scientific understanding of this complex issue. We aim to achieve a comprehensive view of the processes involved in the conservation and development of local cattle breeds and have made special efforts in discussing the implications of the research results in this respect. The final outcome of the thesis is to illustrate how quantitative methods can be exploited in designing and establishing sound strategies and programmes for the conservation and development of local livestock breeds. Firstly we explored the public non-market attributes of the total economic value (TEV) of livestock, using the Spanish Alistana-Sanabresa (AS) cattle breed as a case study. Total economic value of any good comprises both use and non-use components, where the latter include option, bequest and existence values. For livestock, the direct use values are mainly stemming from production outputs. Indirect use values relate to the role of livestock as a maintainer of rural culture and landscape. The option value is related to the potential use of livestock, the bequest values relate to the value associated with the inheritance of the resources to future generation and the existence values relate to the utility perceived by people from knowing that specific resources exist. We aimed to determine the relative importance of the non-market components of the TEV of the AS breed, the socio-economic variables that influence how people value the different components of TEV and to assess the implications of the Spanish national conservation strategy for the AS breed. To do so, we used a choice experiment (CE) approach and applied the technique to assess people’s willingness to pay (WTP) for the conservation of AS breed. The use of CE allows the valuation of the individual components of TEV for a given good. We analysed the choice data using a random parameter logit (RPL) model. AS breed was found to have a significant public good value. Its most important values were related to the indirect use value due to the maintenance of Zamorian culture and the existence value (both represent over 80% of its TEV). There were several socioeconomic variables influencing people’s valuation of the public service of the breed. In the case of AS breed, the place of living (city or rural area), having seen animals of the breed, having eaten breed products and the respondents’ attitude towards economic development – environment conflicts do influence people’s WTP for AS conservation. We also found that people do not have a complete picture of all the functions and roles that AS breed as AnGR. Therefore, the actions for increasing awareness of AS should go to that direction. The farmers will need incentives to exploit some of the public goods values and maintain the breed population size at socially desirable levels. One such mechanism could be related to the development of agritourism, which would enhance the private good value and provide an important addition to the conservation and utilisation strategy. However, the farmers need a serious evaluation on how to invest in niche product development or how to improve product quality and brand recognition. Using the understanding on the importance of the public function of local cattle we tried to depict the current diversity regarding technical, economic and social factors found in local cattle farming across Europe. To do so we focused in an international collaborative project on the case of fifteen local cattle breeds in eight European countries. We investigated the variation among the countries to detect the common key elements, which affect the viability of local breeds. We surveyed with interviews a total of 355 farms across the fifteen breeds. We used the planned herd size changes by the farmer as an indicator of breed viability. The questionnaire included several economic, technical and social aspects with potential influence on breeds’ demographic trends. We analysed the data using multivariate statistical techniques, such as discriminat analysis and logistic regression. The factors affecting a local breed’s viability were highly heterogeneous across Europe. In some countries, farmers did not recognise any high social value attached to keeping a local cattle breed. Hence there is a need to develop communication programmes across EU countries making people aware about the diversity and importance of values associated to raising local breeds. The countries were also very variable regarding the importance of local markets and the percentage of farm land owned by the farmers. Despite the country specificities, there were also common factors affecting the breed viability across Europe. The factors were from different grounds, from social, such as the age of the farmer and the social appreciation of their work, to technicalorganizational, such as the farmers’ attitude to collaborating with each other. The heterogeneity found reflects the variation in breeding systems and production environment (in the socioeconomic, technical and ecological sense) present in Europe. Therefore, caution should be taken in implementing common policies at the country level. Variability could also be rather high within countries due to breed specificities. Therefore, the national policies should be flexible to adapt to the specificities. The variables significantly associated with breed viability should be positively incorporated in the conservation strategies, and considered in developing common and/or national policies. The strategy preparation and policy planning should go beyond the provision of a general economic support to compensate farmers for the lower profitability of local breeds. Of particular interest is the observation that the opportunity for farmer collaboration and the appreciation by the society of the cultural, environmental and social role of local cattle farming were positively associated with the breed survival. In addition, farmer's high age is not only a problem of poor generation transfer but it is also a problem because it might lead to a lower attitude to investing in farming activities and to a lower ability to adapt to environment changes. The farmers’ adaptation capability may be a key point for the viability of local breeds. Decision making tools can help to get a comprehensive view on the conservation and development of local breeds. It allows us to use a systematic and structured approach for identifying and prioritizing conservation and development strategies. We used SWOT (Strengths, Weaknesses Opportunities and Threats) analysis for this purpose and recognized that many conservation and development projects rely on farmers. We developed a quantified SWOT method and applied it in the aforementioned collaborative research to a set of thirteen cattle breeds in six European countries. The method has four steps: definition of the system, identification and grouping of the driving factors, quantification of the importance of driving factors and identification and prioritization of the strategies. The factors were determined following a multi-stakeholder approach and grouped with a three level structure. FAnGR expert groups ranked the factors and a quantification process was implemented to identify and prioritize strategies. The structure of the SWOT analysis allowed analyzing the conservation problem from general down to specific perspectives. Joining breed specific analyses into a common SWOT analysis permitted comparison of breed cases across countries. We identified 99 driving factors across breeds. The across breed analysis revealed that irrelevant factors were consistent. There was high heterogeneity among the most relevant factors and strategies. The strategies increased eligibility as they lost specificity. Although the situation was very heterogeneous, the most promising factors and strategies were linked to the positive aspects (Strengths and Opportunities). Therefore, the future of the studied local breed is promising. The results of our analysis also confirmed the high relevance of the cultural value of the breeds. The most important internal factors (strengths and weaknesses) were related farmers and production systems. The most important opportunities were found in developing and marketing new products, while the most relevant threats were found in selling the current conventional products. In this regard, it should be fruitful to work on farmers’ motivation, collaboration, and capacity building. We conclude that European policies should focus on general aspects and be flexible enough to be adapted to the country and breed specificities. As mentioned, farmers have a key role in the conservation and development of a local cattle breed. Therefore, it is very relevant to understand the implications of farmer heterogeneity within a breed for its viability. In the fourth part of the thesis, we developed a general farmer typology to help analyzing the relations between farmer features and farm profiles, herd dynamics and farmers’ decision making. In the analysis we applied and used the sociological framework of economic and cultural capital and studied how the determined farmer types were linked to farm profiles and breeding decisions, among others. The typology was based on measurable socioeconomic factors indicating the economic and cultural capital of farmers. A group of 85 farmers raising the Spanish Avileña-Negra Ibérica (ANI) local cattle breed was used to illustrate and test the procedure. The farmer types were defined by a hierarchical cluster analysis with a set of canonical variables derived from the following five the socioeconomic factors: the formal educational level of the farmer, the year the farmer started keeping the ANI breed, the percentage of the total family income covered by the farm, the percentage of the total farm land owned by the farmer and the farmer’s age. The present ANI farmer types were much more complex than what they were in the past. We found that the farmer types differed in many socioeconomic aspects and in the farms profile. Furthermore, the types also differentiate farmers with respect to decisions about changing the farm size, breeding aims and stated reactions towards hypothetical subsidy variation. We have verified that economic and cultural capitals are not independent and further showed how they are interacting in the different farmer types. The farmers related to the types with high economic, institutionalized and embodied cultural capitals had a higher demand of breeding animals from others farmers of the breed, which may be related to the higher social prestige within the breed. One of the key implications of this finding for the future of the breed is whether or not the prestige of farmers is related to genetic superiority of their animals, what is to say, that it is related with a sound use of tools that farmers have available to make selection decisions. The farmer types differed in the form of collaboration and in the reactions to the hypothetical variation in subsidies. There were farmers with low dependency on subsidies, while most of them are highly dependent on subsidies. Therefore, any drastic change in the subsidy programme might have influence on the development of local breeds. The adaptation of these programme to the farmers’ heterogeneity might increase its efficacy, thus it would be interesting to explore ways of doing it. We conclude highlighting the need to have a variety of policies, which take into account the heterogeneity among the farmers. To finish we dealt with the genetic structure of livestock populations. Farmers’ decisions on the breeding animals and their progeny numbers shape the demographic and genetic structure of the breeds. Nowadays there is a renovated interest in studying the population structure since it can bias the prediction of genomic breeding values and genome wide association studies. We determined the genetic structure of ANI breed using two different methods, a graphical clustering algorithm (GCA) and a Bayesian clustering algorithm (STRUCTURE) were used. We paid particular attention to the influence that the presence of closely related individuals and the genetic differentiation of subpopulations may have on the inferences about the population structure. We first evaluated the performance of the algorithms in simulated populations. Then we inferred the genetic structure of the Spanish cattle breed ANI analysing a data set of 13343 animals (genotyped for 17 microsatellites) from 57 herds. ANI breed is an example of a population with complex relationships. We used the herdbook to study the gene flow, estimation among other things, the contribution of different herds to the genetic composition of the ANI breed. For the simulated scenarios, when FST among subpopulations was sufficiently high, both algorithms consistently inferred the correct structure regardless of the presence of related individuals. However, when the genetic differentiation among subpopulations was low, STRUCTURE identified the family based structure while GCA did not provide any consistent picture. The GCA was a fast and efficient method to infer genetic structure to determine the hidden core structure of a population with complex history and relationships. GCA could also be used to narrow down the number of clusters to be tested by STRUCTURE. Both, STRUCTURE and GCA describe a similar structure for the ANI breed suggesting that the results are robust. ANI population was found to have three genetically differentiated clusters that could correspond to three genetic lineages. These are directly related to the herds with a major contribution to the breed. In addition, ANI breed has also a large pool made of individuals with an admixture of origins. The genetic structure of ANI, assessed by molecular information, shows a stratification that corresponds to the demographic evolution of the breed. It will be of great importance to learn more about the composition of the pool and study how it is related to the existing genetic variability of the breed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Hoy en día, con la evolución continua y rápida de las tecnologías de la información y los dispositivos de computación, se recogen y almacenan continuamente grandes volúmenes de datos en distintos dominios y a través de diversas aplicaciones del mundo real. La extracción de conocimiento útil de una cantidad tan enorme de datos no se puede realizar habitualmente de forma manual, y requiere el uso de técnicas adecuadas de aprendizaje automático y de minería de datos. La clasificación es una de las técnicas más importantes que ha sido aplicada con éxito a varias áreas. En general, la clasificación se compone de dos pasos principales: en primer lugar, aprender un modelo de clasificación o clasificador a partir de un conjunto de datos de entrenamiento, y en segundo lugar, clasificar las nuevas instancias de datos utilizando el clasificador aprendido. La clasificación es supervisada cuando todas las etiquetas están presentes en los datos de entrenamiento (es decir, datos completamente etiquetados), semi-supervisada cuando sólo algunas etiquetas son conocidas (es decir, datos parcialmente etiquetados), y no supervisada cuando todas las etiquetas están ausentes en los datos de entrenamiento (es decir, datos no etiquetados). Además, aparte de esta taxonomía, el problema de clasificación se puede categorizar en unidimensional o multidimensional en función del número de variables clase, una o más, respectivamente; o también puede ser categorizado en estacionario o cambiante con el tiempo en función de las características de los datos y de la tasa de cambio subyacente. A lo largo de esta tesis, tratamos el problema de clasificación desde tres perspectivas diferentes, a saber, clasificación supervisada multidimensional estacionaria, clasificación semisupervisada unidimensional cambiante con el tiempo, y clasificación supervisada multidimensional cambiante con el tiempo. Para llevar a cabo esta tarea, hemos usado básicamente los clasificadores Bayesianos como modelos. La primera contribución, dirigiéndose al problema de clasificación supervisada multidimensional estacionaria, se compone de dos nuevos métodos de aprendizaje de clasificadores Bayesianos multidimensionales a partir de datos estacionarios. Los métodos se proponen desde dos puntos de vista diferentes. El primer método, denominado CB-MBC, se basa en una estrategia de envoltura de selección de variables que es voraz y hacia delante, mientras que el segundo, denominado MB-MBC, es una estrategia de filtrado de variables con una aproximación basada en restricciones y en el manto de Markov. Ambos métodos han sido aplicados a dos problemas reales importantes, a saber, la predicción de los inhibidores de la transcriptasa inversa y de la proteasa para el problema de infección por el virus de la inmunodeficiencia humana tipo 1 (HIV-1), y la predicción del European Quality of Life-5 Dimensions (EQ-5D) a partir de los cuestionarios de la enfermedad de Parkinson con 39 ítems (PDQ-39). El estudio experimental incluye comparaciones de CB-MBC y MB-MBC con los métodos del estado del arte de la clasificación multidimensional, así como con métodos comúnmente utilizados para resolver el problema de predicción de la enfermedad de Parkinson, a saber, la regresión logística multinomial, mínimos cuadrados ordinarios, y mínimas desviaciones absolutas censuradas. En ambas aplicaciones, los resultados han sido prometedores con respecto a la precisión de la clasificación, así como en relación al análisis de las estructuras gráficas que identifican interacciones conocidas y novedosas entre las variables. La segunda contribución, referida al problema de clasificación semi-supervisada unidimensional cambiante con el tiempo, consiste en un método nuevo (CPL-DS) para clasificar flujos de datos parcialmente etiquetados. Los flujos de datos difieren de los conjuntos de datos estacionarios en su proceso de generación muy rápido y en su aspecto de cambio de concepto. Es decir, los conceptos aprendidos y/o la distribución subyacente están probablemente cambiando y evolucionando en el tiempo, lo que hace que el modelo de clasificación actual sea obsoleto y deba ser actualizado. CPL-DS utiliza la divergencia de Kullback-Leibler y el método de bootstrapping para cuantificar y detectar tres tipos posibles de cambio: en las predictoras, en la a posteriori de la clase o en ambas. Después, si se detecta cualquier cambio, un nuevo modelo de clasificación se aprende usando el algoritmo EM; si no, el modelo de clasificación actual se mantiene sin modificaciones. CPL-DS es general, ya que puede ser aplicado a varios modelos de clasificación. Usando dos modelos diferentes, el clasificador naive Bayes y la regresión logística, CPL-DS se ha probado con flujos de datos sintéticos y también se ha aplicado al problema real de la detección de código malware, en el cual los nuevos ficheros recibidos deben ser continuamente clasificados en malware o goodware. Los resultados experimentales muestran que nuestro método es efectivo para la detección de diferentes tipos de cambio a partir de los flujos de datos parcialmente etiquetados y también tiene una buena precisión de la clasificación. Finalmente, la tercera contribución, sobre el problema de clasificación supervisada multidimensional cambiante con el tiempo, consiste en dos métodos adaptativos, a saber, Locally Adpative-MB-MBC (LA-MB-MBC) y Globally Adpative-MB-MBC (GA-MB-MBC). Ambos métodos monitorizan el cambio de concepto a lo largo del tiempo utilizando la log-verosimilitud media como métrica y el test de Page-Hinkley. Luego, si se detecta un cambio de concepto, LA-MB-MBC adapta el actual clasificador Bayesiano multidimensional localmente alrededor de cada nodo cambiado, mientras que GA-MB-MBC aprende un nuevo clasificador Bayesiano multidimensional. El estudio experimental realizado usando flujos de datos sintéticos multidimensionales indica los méritos de los métodos adaptativos propuestos. ABSTRACT Nowadays, with the ongoing and rapid evolution of information technology and computing devices, large volumes of data are continuously collected and stored in different domains and through various real-world applications. Extracting useful knowledge from such a huge amount of data usually cannot be performed manually, and requires the use of adequate machine learning and data mining techniques. Classification is one of the most important techniques that has been successfully applied to several areas. Roughly speaking, classification consists of two main steps: first, learn a classification model or classifier from an available training data, and secondly, classify the new incoming unseen data instances using the learned classifier. Classification is supervised when the whole class values are present in the training data (i.e., fully labeled data), semi-supervised when only some class values are known (i.e., partially labeled data), and unsupervised when the whole class values are missing in the training data (i.e., unlabeled data). In addition, besides this taxonomy, the classification problem can be categorized into uni-dimensional or multi-dimensional depending on the number of class variables, one or more, respectively; or can be also categorized into stationary or streaming depending on the characteristics of the data and the rate of change underlying it. Through this thesis, we deal with the classification problem under three different settings, namely, supervised multi-dimensional stationary classification, semi-supervised unidimensional streaming classification, and supervised multi-dimensional streaming classification. To accomplish this task, we basically used Bayesian network classifiers as models. The first contribution, addressing the supervised multi-dimensional stationary classification problem, consists of two new methods for learning multi-dimensional Bayesian network classifiers from stationary data. They are proposed from two different points of view. The first method, named CB-MBC, is based on a wrapper greedy forward selection approach, while the second one, named MB-MBC, is a filter constraint-based approach based on Markov blankets. Both methods are applied to two important real-world problems, namely, the prediction of the human immunodeficiency virus type 1 (HIV-1) reverse transcriptase and protease inhibitors, and the prediction of the European Quality of Life-5 Dimensions (EQ-5D) from 39-item Parkinson’s Disease Questionnaire (PDQ-39). The experimental study includes comparisons of CB-MBC and MB-MBC against state-of-the-art multi-dimensional classification methods, as well as against commonly used methods for solving the Parkinson’s disease prediction problem, namely, multinomial logistic regression, ordinary least squares, and censored least absolute deviations. For both considered case studies, results are promising in terms of classification accuracy as well as regarding the analysis of the learned MBC graphical structures identifying known and novel interactions among variables. The second contribution, addressing the semi-supervised uni-dimensional streaming classification problem, consists of a novel method (CPL-DS) for classifying partially labeled data streams. Data streams differ from the stationary data sets by their highly rapid generation process and their concept-drifting aspect. That is, the learned concepts and/or the underlying distribution are likely changing and evolving over time, which makes the current classification model out-of-date requiring to be updated. CPL-DS uses the Kullback-Leibler divergence and bootstrapping method to quantify and detect three possible kinds of drift: feature, conditional or dual. Then, if any occurs, a new classification model is learned using the expectation-maximization algorithm; otherwise, the current classification model is kept unchanged. CPL-DS is general as it can be applied to several classification models. Using two different models, namely, naive Bayes classifier and logistic regression, CPL-DS is tested with synthetic data streams and applied to the real-world problem of malware detection, where the new received files should be continuously classified into malware or goodware. Experimental results show that our approach is effective for detecting different kinds of drift from partially labeled data streams, as well as having a good classification performance. Finally, the third contribution, addressing the supervised multi-dimensional streaming classification problem, consists of two adaptive methods, namely, Locally Adaptive-MB-MBC (LA-MB-MBC) and Globally Adaptive-MB-MBC (GA-MB-MBC). Both methods monitor the concept drift over time using the average log-likelihood score and the Page-Hinkley test. Then, if a drift is detected, LA-MB-MBC adapts the current multi-dimensional Bayesian network classifier locally around each changed node, whereas GA-MB-MBC learns a new multi-dimensional Bayesian network classifier from scratch. Experimental study carried out using synthetic multi-dimensional data streams shows the merits of both proposed adaptive methods.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

RESUMEN El apoyo a la selección de especies a la restauración de la vegetación en España en los últimos 40 años se ha basado fundamentalmente en modelos de distribución de especies, también llamados modelos de nicho ecológico, que estiman la probabilidad de presencia de las especies en función de las condiciones del medio físico (clima, suelo, etc.). Con esta tesis se ha intentado contribuir a la mejora de la capacidad predictiva de los modelos introduciendo algunas propuestas metodológicas adaptadas a los datos disponibles actualmente en España y enfocadas al uso de los modelos en la selección de especies. No siempre se dispone de datos a una resolución espacial adecuada para la escala de los proyectos de restauración de la vegetación. Sin embrago es habitual contar con datos de baja resolución espacial para casi todas las especies vegetales presentes en España. Se propone un método de recalibración que actualiza un modelo de regresión logística de baja resolución espacial con una nueva muestra de alta resolución espacial. El método permite obtener predicciones de calidad aceptable con muestras relativamente pequeñas (25 presencias de la especie) frente a las muestras mucho mayores (más de 100 presencias) que requería una estrategia de modelización convencional que no usara el modelo previo. La selección del método estadístico puede influir decisivamente en la capacidad predictiva de los modelos y por esa razón la comparación de métodos ha recibido mucha atención en la última década. Los estudios previos consideraban a la regresión logística como un método inferior a técnicas más modernas como las de máxima entropía. Los resultados de la tesis demuestran que esa diferencia observada se debe a que los modelos de máxima entropía incluyen técnicas de regularización y la versión de la regresión logística usada en las comparaciones no. Una vez incorporada la regularización a la regresión logística usando penalización, las diferencias en cuanto a capacidad predictiva desaparecen. La regresión logística penalizada es, por tanto, una alternativa más para el ajuste de modelos de distribución de especies y está a la altura de los métodos modernos con mejor capacidad predictiva como los de máxima entropía. A menudo, los modelos de distribución de especies no incluyen variables relativas al suelo debido a que no es habitual que se disponga de mediciones directas de sus propiedades físicas o químicas. La incorporación de datos de baja resolución espacial proveniente de mapas de suelo nacionales o continentales podría ser una alternativa. Los resultados de esta tesis sugieren que los modelos de distribución de especies de alta resolución espacial mejoran de forma ligera pero estadísticamente significativa su capacidad predictiva cuando se incorporan variables relativas al suelo procedente de mapas de baja resolución espacial. La validación es una de las etapas fundamentales del desarrollo de cualquier modelo empírico como los modelos de distribución de especies. Lo habitual es validar los modelos evaluando su capacidad predictiva especie a especie, es decir, comparando en un conjunto de localidades la presencia o ausencia observada de la especie con las predicciones del modelo. Este tipo de evaluación no responde a una cuestión clave en la restauración de la vegetación ¿cuales son las n especies más idóneas para el lugar a restaurar? Se ha propuesto un método de evaluación de modelos adaptado a esta cuestión que consiste en estimar la capacidad de un conjunto de modelos para discriminar entre las especies presentes y ausentes de un lugar concreto. El método se ha aplicado con éxito a la validación de 188 modelos de distribución de especies leñosas orientados a la selección de especies para la restauración de la vegetación en España. Las mejoras metodológicas propuestas permiten mejorar la capacidad predictiva de los modelos de distribución de especies aplicados a la selección de especies en la restauración de la vegetación y también permiten ampliar el número de especies para las que se puede contar con un modelo que apoye la toma de decisiones. SUMMARY During the last 40 years, decision support tools for plant species selection in ecological restoration in Spain have been based on species distribution models (also called ecological niche models), that estimate the probability of occurrence of the species as a function of environmental predictors (e.g., climate, soil). In this Thesis some methodological improvements are proposed to contribute to a better predictive performance of such models, given the current data available in Spain and focusing in the application of the models to selection of species for ecological restoration. Fine grained species distribution data are required to train models to be used at the scale of the ecological restoration projects, but this kind of data are not always available for every species. On the other hand, coarse grained data are available for almost every species in Spain. A recalibration method is proposed that updates a coarse grained logistic regression model using a new fine grained updating sample. The method allows obtaining acceptable predictive performance with reasonably small updating sample (25 occurrences of the species), in contrast with the much larger samples (more than 100 occurrences) required for a conventional modeling approach that discards the coarse grained data. The choice of the statistical method may have a dramatic effect on model performance, therefore comparisons of methods have received much interest in the last decade. Previous studies have shown a poorer performance of the logistic regression compared to novel methods like maximum entropy models. The results of this Thesis show that the observed difference is caused by the fact that maximum entropy models include regularization techniques and the versions of logistic regression compared do not. Once regularization has been added to the logistic regression using a penalization procedure, the differences in model performance disappear. Therefore, penalized logistic regression may be considered one of the best performing methods to model species distributions. Usually, species distribution models do not consider soil related predictors because direct measurements of the chemical or physical properties are often lacking. The inclusion of coarse grained soil data from national or continental soil maps could be a reasonable alternative. The results of this Thesis suggest that the performance of the models slightly increase after including soil predictors form coarse grained soil maps. Model validation is a key stage of the development of empirical models, such as species distribution models. The usual way of validating is based on the evaluation of model performance for each species separately, i.e., comparing observed species presences or absence to predicted probabilities in a set of sites. This kind of evaluation is not informative for a common question in ecological restoration projects: which n species are the most suitable for the environment of the site to be restored? A method has been proposed to address this question that estimates the ability of a set of models to discriminate among present and absent species in a evaluation site. The method has been successfully applied to the validation of 188 species distribution models used to support decisions on species selection for ecological restoration in Spain. The proposed methodological approaches improve the predictive performance of the predictive models applied to species selection in ecological restoration and increase the number of species for which a model that supports decisions can be fitted.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La vegetación de las zonas húmedas es habitualmente estudiada en relación a sus condiciones medias de inundación pero pocas veces en relación a episodios extremos. Dentro de éstos uno de los menos conocidos son efectos de la inundación excesiva en plantas leñosas. La vegetación halohidrófila de la marisma del Parque Nacional de Doñana sufrió durante el año hidrológico 2009-10 un episodio de inundación extrema que causó una extensa mortandad en el almajar (agrupación vegetal de Arthrocnemum macrostachyum) que es analizada en esta comunicación. Se presentan un estudio del efecto dicho episodio en el almajo. Se basa en un muestreo de 106 puntos, de cotas obtenidas mediante GPS diferencial y una traslación del hidroperiodo de las estaciones de seguimiento de medición de la altura diaria de agua del Parque, en los que se tomaron datos de talla y supervivencia almajos. Se empleó un análisis de regresión logística que permitió generar unas curvas de supervivencia según relaciones tiempo-altura de inundación en las plantas y se realizó un comparación con los niveles medios de inundación de dicha agrupación vegetal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las modernas instalaciones para la producción avícola de puesta agrupan un muy elevado número de individuos en baterías de jaulas. Esta disposición supone un reto de cara al control de temperaturas dentro de las naves, para garantizar que éstas se encuentren dentro del intervalo de confort térmico de los animales (12-24°C en el caso de ponedoras). Asimismo, la detección temprana de posibles individuos con problemas o muertos resulta una tarea imprescindible para asegurar el bienestar de los animales restantes. La supervisión continúa y multidistribuida de la temperatura en los gallineros puede contribuir al primer aspecto mencionado, mientras que la detección temprana de animales muertos o afectados por alteraciones que conllevan cambios en su temperatura, podría acometerse mediante imagen térmica. La imagen térmica es una técnica basada en la conversión del espectro de radiación infrarroja de un objeto a imágenes visibles para su posterior análisis. La posibilidad de determinar temperaturas a distancia y con una resolución espacial suficiente hace esta técnica especialmente adecuada para la monitorización de la temperatura de los animales en las actuales instalaciones comerciales. Así pues, el objetivo principal del presente trabajo es mejorar el bienestar animal de ponedoras en instalaciones evaluando: a) la viabilidad de la imagen térmica para la identificación temprana de ejemplares muertos y b) la viabilidad de implementación de dispositivos autónomos registradores de Tª tipo RFID TurboTag para la supervisión ambiental. El presente trabajo analiza los resultados obtenidos a partir de la toma de imágenes térmicas de gallinas eutanasiadas durante dos sesiones de necropsias dentro de un estudio de evaluación de dos programas de vacunación frente a Salmonella llevado a cabo por el Centro de Vigilancia Sanitaria Veterinaria (VISAVET-UCM) de marzo a abril de 2012. Los resultados obtenidos muestran cómo el enfriamiento de las zonas más expuestas (cara, cresta y patas) puede ajustarse mediante una regresión logística con un elevado coeficiente de determinación (r2 superior a 0.97). La implementación de un sistema automatizado para la detección temprana de individuos muertos en instalaciones comerciales requiere del empleo de técnicas de análisis de imagen, apuntadas en este trabajo, y de la realización de estudios adicionales bajo condiciones climáticas más amplias. Además, las tarjetas TurboTag suponen una herramienta eficaz (detectándose diferencias de Tª de hasta 40ºC entre distintas ubicaciones y a lo largo del periodo de medidas) y de bajo coste para la caracterización ambiental de los gallineros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este artículo analiza la relación entre la eficiencia productiva y las Redes Sociales Virtuales (RSV) en las empresas de telecomunicaciones en España. En una primera etapa, se aplica el análisis envolvente de datos (DEA) incorporando varios indicadores de actividad ?Social Media?. En una segunda etapa, se utiliza una regresión logística para caracterizar las empresas eficientes. Los resultados muestran que la capacidad de absorción y utilización de las RSV es un factor determinante en la mejora de la eficiencia productiva. La utilización combinada y las distintas capacidades de gestión de las RSV permiten identificarlas como un recurso heterogéneo. Este trabajo presenta un modelo para la evaluación del desempeño estratégico al abordar su presencia y actividad en RSV. ABSTRACT. This paper analyzes the relationship between the productive efficiency and the Online Social Networks - OSN in the Spanish telecommunications firms. First, a data envelopment analysis (DEA) is used and several indicators of business "Social Media" activities are incorporated. In a second stage, a logistic regression model regression is applied to characteri ze the efficient enterprises. Results show that the company's ability to absorb and utilize this OSN is a key factor in improving the productive efficiency. These results on the combined use and different management capabilities of OSN point to a definitio n of OSN as a heterogeneous resource. This paper presents a model for assessing the strategic performance to address their presence and activity in OSN.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las alteraciones del sistema climático debido al aumento de concentraciones de gases de efecto invernadero (GEI) en la atmósfera, tendrán implicaciones importantes para la agricultura, el medio ambiente y la sociedad. La agricultura es una fuente importante de emisiones de gases de efecto invernadero (globalmente contribuye al 12% del total de GEI), y al mismo tiempo puede ser parte de la solución para mitigar las emisiones y adaptarse al cambio climático. Las acciones frente al desafío del cambio climático deben priorizar estrategias de adaptación y mitigación en la agricultura dentro de la agenda para el desarrollo de políticas. La agricultura es por tanto crucial para la conservación y el uso sostenible de los recursos naturales, que ya están sometidos a impactos del cambio climático, al mismo tiempo que debe suministrar alimentos para una población creciente. Por tanto, es necesaria una coordinación entre las actuales estrategias de política climática y agrícola. El concepto de agricultura climáticamente inteligente ha surgido para integrar todos estos servicios de la producción agraria. Al evaluar opciones para reducir las amenazas del cambio climático para la agricultura y el medio ambiente, surgen dos preguntas de investigación: • ¿Qué información es necesaria para definir prácticas agrarias inteligentes? • ¿Qué factores influyen en la implementación de las prácticas agrarias inteligentes? Esta Tesis trata de proporcionar información relevante sobre estas cuestiones generales con el fin de apoyar el desarrollo de la política climática. Se centra en sistemas agrícolas Mediterráneos. Esta Tesis integra diferentes métodos y herramientas para evaluar las alternativas de gestión agrícola y políticas con potencial para responder a las necesidades de mitigación y adaptación al cambio climático. La investigación incluye enfoques cuantitativos y cualitativos e integra variables agronómicas, de clima y socioeconómicas a escala local y regional. La investigación aporta una recopilación de datos sobre evidencia experimental existente, y un estudio integrado sobre el comportamiento de los agricultores y las posibles alternativas de cambio (por ejemplo, la tecnología, la gestión agrícola y la política climática). Los casos de estudio de esta Tesis - el humedal de Doñana (S España) y la región de Aragón (NE España) - permiten ilustrar dos sistemas Mediterráneos representativos, donde el uso intensivo de la agricultura y las condiciones semiáridas son ya una preocupación. Por este motivo, la adopción de estrategias de mitigación y adaptación puede desempeñar un papel muy importante a la hora de encontrar un equilibrio entre la equidad, la seguridad económica y el medio ambiente en los escenarios de cambio climático. La metodología multidisciplinar de esta tesis incluye una amplia gama de enfoques y métodos para la recopilación y el análisis de datos. La toma de datos se apoya en la revisión bibliográfica de evidencia experimental, bases de datos públicas nacionales e internacionales y datos primarios recopilados mediante entrevistas semi-estructuradas con los grupos de interés (administraciones públicas, responsables políticos, asesores agrícolas, científicos y agricultores) y encuestas con agricultores. Los métodos de análisis incluyen: meta-análisis, modelos de gestión de recursos hídricos (modelo WAAPA), análisis multicriterio para la toma de decisiones, métodos estadísticos (modelos de regresión logística y de Poisson) y herramientas para el desarrollo de políticas basadas en la ciencia. El meta-análisis identifica los umbrales críticos de temperatura que repercuten en el crecimiento y el desarrollo de los tres cultivos principales para la seguridad alimentaria (arroz, maíz y trigo). El modelo WAAPA evalúa el efecto del cambio climático en la gestión del agua para la agricultura de acuerdo a diferentes alternativas políticas y escenarios climáticos. El análisis multicriterio evalúa la viabilidad de las prácticas agrícolas de mitigación en dos escenarios climáticos de acuerdo a la percepción de diferentes expertos. Los métodos estadísticos analizan los determinantes y las barreras para la adopción de prácticas agrícolas de mitigación. Las herramientas para el desarrollo de políticas basadas en la ciencia muestran el potencial y el coste para reducir GEI mediante las prácticas agrícolas. En general, los resultados de esta Tesis proporcionan información sobre la adaptación y la mitigación del cambio climático a nivel de explotación para desarrollar una política climática más integrada y ayudar a los agricultores en la toma de decisiones. Los resultados muestran las temperaturas umbral y la respuesta del arroz, el maíz y el trigo a temperaturas extremas, siendo estos valores de gran utilidad para futuros estudios de impacto y adaptación. Los resultados obtenidos también aportan una serie de estrategias flexibles para la adaptación y la mitigación a escala local, proporcionando a su vez una mejor comprensión sobre las barreras y los incentivos para su adopción. La capacidad de mejorar la disponibilidad de agua y el potencial y el coste de reducción de GEI se han estimado para estas estrategias en los casos de estudio. Estos resultados podrían ayudar en el desarrollo de planes locales de adaptación y políticas regionales de mitigación, especialmente en las regiones Mediterráneas. ABSTRACT Alterations in the climatic system due to increased atmospheric concentrations of greenhouse gas emissions (GHG) are expected to have important implications for agriculture, the environment and society. Agriculture is an important source of GHG emissions (12 % of global anthropogenic GHG), but it is also part of the solution to mitigate emissions and to adapt to climate change. Responses to face the challenge of climate change should place agricultural adaptation and mitigation strategies at the heart of the climate change agenda. Agriculture is crucial for the conservation and sustainable use of natural resources, which already stand under pressure due to climate change impacts, increased population, pollution and fragmented and uncoordinated climate policy strategies. The concept of climate smart agriculture has emerged to encompass all these issues as a whole. When assessing choices aimed at reducing threats to agriculture and the environment under climate change, two research questions arise: • What information defines smart farming choices? • What drives the implementation of smart farming choices? This Thesis aims to provide information on these broad questions in order to support climate policy development focusing in some Mediterranean agricultural systems. This Thesis integrates methods and tools to evaluate potential farming and policy choices to respond to mitigation and adaptation to climate change. The assessment involves both quantitative and qualitative approaches and integrates agronomic, climate and socioeconomic variables at local and regional scale. The assessment includes the collection of data on previous experimental evidence, and the integration of farmer behaviour and policy choices (e.g., technology, agricultural management and climate policy). The case study areas -- the Doñana coastal wetland (S Spain) and the Aragón region (NE Spain) – illustrate two representative Mediterranean regions where the intensive use of agriculture and the semi-arid conditions are already a concern. Thus the adoption of mitigation and adaptation measures can play a significant role for reaching a balance among equity, economic security and the environment under climate change scenarios. The multidisciplinary methodology of this Thesis includes a wide range of approaches for collecting and analysing data. The data collection process include revision of existing experimental evidence, public databases and the contribution of primary data gathering by semi-structured interviews with relevant stakeholders (i.e., public administrations, policy makers, agricultural advisors, scientist and farmers among others) and surveys given to farmers. The analytical methods include meta-analysis, water availability models (WAAPA model), decision making analysis (MCA, multi-criteria analysis), statistical approaches (Logistic and Poisson regression models) and science-base policy tools (MACC, marginal abatement cost curves and SOC abatement wedges). The meta-analysis identifies the critical temperature thresholds which impact on the growth and development of three major crops (i.e., rice, maize and wheat). The WAAPA model assesses the effect of climate change for agricultural water management under different policy choices and climate scenarios. The multi-criteria analysis evaluates the feasibility of mitigation farming practices under two climate scenarios according to the expert views. The statistical approaches analyses the drivers and the barriers for the adoption of mitigation farming practices. The science-base policy tools illustrate the mitigation potential and cost effectiveness of the farming practices. Overall, the results of this Thesis provide information to adapt to, and mitigate of, climate change at farm level to support the development of a comprehensive climate policy and to assist farmers. The findings show the key temperature thresholds and response to extreme temperature effects for rice, maize and wheat, so such responses can be included into crop impact and adaptation models. A portfolio of flexible adaptation and mitigation choices at local scale are identified. The results also provide a better understanding of the stakeholders oppose or support to adopt the choices which could be used to incorporate in local adaptation plans and mitigation regional policy. The findings include estimations for the farming and policy choices on the capacity to improve water supply reliability, abatement potential and cost-effective in Mediterranean regions.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En los últimos años, la realización de compras y todo tipo de trámites a través de Internet o aspectos como la presencia online de las personas han ido aumentando paulatinamente y no parece que esta tendencia vaya a invertirse a corto plazo. Esto ha provocado que los requisitos de rendimiento y personalización exigidos a estos servicios se hayan visto incrementados notablemente. Cada vez más empresas y organizaciones de todo tipo señalan la importancia que tiene una gestión adecuada de las trazas de sus usuarios para tener éxito en el mercado digital. A partir de ellas se puede obtener información que redunda en incrementos de las capacidades de adaptación y del valor de las aplicaciones. En este sentido, los avances en el campo de la ciencia de los datos y en concreto, en el aprendizaje automático, han supuesto una pieza clave en el desarrollo de técnicas que permiten analizar y extraer el máximo conocimiento posible a partir de los grandes volúmenes de datos generados por la actividad de la Web. El objetivo de este trabajo es realizar un estudio de las fases, técnicas y metodologías que actualmente se aplican en el transcurso de los proyectos de ciencia de datos y en la disciplina del aprendizaje automático. Una vez se hayan identificado aquellas más utilizadas, se aplicarán a un ejemplo realista perteneciente al ámbito de la minería web. En concreto, se desarrollarán modelos predictivos por medio de diferentes algoritmos de aprendizaje automático (regresión logística o reglas de asociación, entre otros) que permitan modelar el comportamiento de los usuarios y predecir la página web que van a visitar a continuación. Para ello se hará uso del paquete estadístico R y de la plataforma de desarrollo RStudio. Posteriormente, se procederá a determinar los principales obstáculos que se derivan de la aplicación de las técnicas del aprendizaje automático así como a determinar el rendimiento que pueden llegar a alcanzar en la práctica. Así mismo se propondrán posibles aplicaciones de los resultados obtenidos con la finalidad de proporcionar valor de negocio dentro de un entorno real. Finalmente, se desarrollarán una serie de componentes de visualización web que permitan presentar de forma gráfica los resultados extraídos del análisis así como interactuar con los distintos modelos en tiempo real. A partir de todo lo anterior se establecerá una comparativa entre los distintos modelos producidos y se destacarán las ventajas e inconvenientes de cada uno de ellos. Con todo ello se presentarán unas recomendaciones finales que recojan los factores a tener en cuenta a la hora de aplicar estos algoritmos al caso concreto de los datos de uso web.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El consumo mundial, impulsor del desarrollo y crecimiento económico de los pueblos, no ha sido igual para todas las naciones, ya que sus efectos han sido diferentes para los ciudadanos de los países del Norte y los del Sur, principalmente por dos razones: una, porque han originado complejos y diferentes estilos de vida y aspiraciones, lo que ha originado grandes diferencias entre los individuos de unos y otros países, y, dos, por su falta de valores sociales y éticos. Ante esta situación, la sociedad en su conjunto debe tomar conciencia de este hecho, y a través de un consumo responsable y de un mayor conocimiento de las relaciones comerciales entre los pueblos, debe optar por consumir productos elaborados bajo criterios de justicia y equidad. Para ayudar a alcanzar estos objetivos de equidad, solidaridad, justicia y ética, nació el Comercio Justo, que, en el caso de España, llegó con veinte años de retraso en la década de los ochenta. Aunque a día de hoy sus ventas crecen a un buen ritmo, siguen siendo inferiores al resto de los países europeos, por cuatro razones: (1) el desconocimiento que la mayoría de los potenciales consumidores tienen de este movimiento social; (2) la dificultad de acceder a los productos que comercializan; (3) el poco impulso que se ofrece desde las Administraciones Públicas; y, (4) porque hay pocas investigaciones en las que se haya analizado el Comercio Justo desde la perspectiva de la demanda, lo que ha implicado que no haya un conocimiento profundo sobre los consumidores de este tipo de productos y sobre sus motivaciones de compra. En base a todo lo expuesto, el presente trabajo se concibe como un estudio exploratorio, que tiene como objetivo principal analizar el perfil de los consumidores y no consumidores de productos de Comercio Justo, sus motivaciones de compra y no compra, así como las variables que influyen en la intención de compra futura, tanto en el segmento de consumidores actuales, como en el segmento de no consumidores de este tipo de productos. Para la realización de este trabajo, se ha utilizado, por una parte, una metodología cualitativa, que ha permitido acceder a la información sobre las opiniones y actitudes que intervienen en los procesos de decisión de compra; y, por otra, una metodología cuantitativa, a través de una encuesta online dirigida a 6.500 individuos, que ha permitido tener información, a través de sendos análisis descriptivos univariante y bivariante, de los individuos encuestados sobre el objeto del estudio. Para validar los modelos y contrastar las hipótesis planteadas, se ha utilizado el análisis de fiabilidad y validación de las escalas de medición seleccionadas (Alpha de Cronbach); el análisis factorial exploratorio, para comprobar la dimensionalidad y validez convergente de las escalas de medida; el análisis factorial confirmatorio, para validar la idoneidad de los modelos de medida propuestos; la regresión logística, para comprobar la validez del modelo general de la probabilidad de la compra o no compra de productos de Comercio Justo; y la regresión lineal múltiple, para comprobar la validez de los modelos específicos de intención de compra futura en los segmentos de compradores y de no compradores. Para realizar todos estos análisis, se han utilizado las herramientas informáticas SPSS v21 y AMOS. Las principales conclusiones del trabajo son: (1) que se deben establecer unos criterios claros que definan quién es quién en el movimiento de Comercio Justo, sus fines, sus objetivos, los productos que comercializan, así como su funcionamiento y desarrollo en España; (2) que, a pesar de las grandes ventajas y posibilidades del Comercio Justo, hay una falta de demanda de estos productos por parte de los consumidores responsables, debido principalmente a la falta de información-comunicación sobre el propio movimiento, y, muy especialmente, a la falta de información sobre los productos, los canales de comercialización, las políticas de precios, las políticas de comunicación, etc., y a la necesidad de que estos productos estén accesibles en los lugares donde los consumidores hacen su compra habitual; y (3) que el Comercio Justo español debe afrontar una serie de desafíos, como son la coordinación entre las diferentes organizaciones que participan en su desarrollo; la sensibilización de los consumidores; la creación de una imagen de marca que defina de una manera clara y sencilla qué es el Comercio Justo; la orientación al cliente y no al producto; y extender la red de comercialización de productos de Comercio Justo a los canales donde los consumidores hacen su compra habitualmente. ABSTRACT Global consumption, the driver of economic growth and development of nations, is not the same for all countries, since its effects have been different on people coming from the North or the South. This is due mainly to two reasons: firstly, because they have developed complex and different lifestyles and aspirations, which have led to significant differences between individuals of one country and another and secondly, because they lack social and ethical values. Given this situation, society as a whole should be aware of this fact, and through responsible consumption and a greater knowledge of trade relations between countries, should opt for consuming products produced with criteria of justice and equity. Fair Trade began as a way to help reach these goals of equity, solidarity, justice and ethics. In the case of Spain it did not start until 20 years later, in the eighties. Although today sales of Fair Trade products are growing at a good rate, they are still below that of other European countries, for four reasons: (1) unawareness of this social movement; (2) the difficult access to these products; (3) insufficient government support; (4) the limited research carried out to analyse Fair Trade from the perspective of demand, resulting in a lack of knowledge about this type of consumer and their purchasing motivations. Based on the above, the present study is designed as an exploratory investigation, aimed at analyzing the profile of consumers and non-consumers of Fair Trade, their motivations for buying and not buying, as well as the variables which influence future purchase intention in both the current consumer segment, and the non-user segment of such products. To carry out this study we have used, on the one hand, a qualitative methodology, to obtain information about the views and attitudes involved in the purchase decision process; and on the other, a quantitative methodology, through an online survey of 6,500 individuals, which provided information through two separate univariate and bivariate descriptive analysis, of the individuals interviewed about the object of this study. To validate the models and contrast hypotheses, we have used the reliability analysis and validation of the selected measurement scales (Cronbach's Alpha); exploratory factor analysis to verify the dimensionality and convergent validity of the measurement scales; confirmatory factor analysis to validate the adequacy of the models of measurement proposed; logistic regression, to verify the validity of the general model of the probability of buying or not buying Fair Trade products; and multiple linear regression to test the validity of specific models in future purchase intention in the segments of buyers and non-buyers. To carry out these analyses, we used SPSS v21 software tools and AMOS. The principal conclusions of the investigation are: (1) the need to establish clear criteria which define who is who in the Fair Trade movement, its goals, objectives, the products they sell, as well as its operation and development in Spain; (2) that despite the great advantages and possibilities of Fair Trade, there is a lack of demand for these products by responsible consumers, mainly due to the lack of information-communication about the movement itself, and especially on the range of products, sales channels, pricing policies, communication policies, etc., and the need for these products to be available in places where consumers make their usual purchase; and (3) that Spanish Fair Trade must address a number of challenges such as: coordination between the different organizations involved in trade development; consumer awareness; creation of a brand image that defines in a clear and simple way what Fair Trade is; focus on the customer rather than the product; and expansion of the network of Fair Trade sales outlets to include the channels where consumers usually make their purchases.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El minuto final de un partido ajustado de baloncesto es un momento crítico que está sujeto a multitud de factores que influyen en su desarrollo. Así, el porcentaje de acierto en los tiros libres durante ese periodo de tiempo va a determinar, en muchas ocasiones, el resultado final del partido. La disminución de rendimiento (drop) en esta faceta de juego en condiciones de presión, puede estar relacionada con múltiples variables propias del contexto deportivo estudiado, como por ejemplo: los segundos restantes de posesión, la situación en el marcador (ir ganando, empatando o perdiendo), la localización del partido (jugar en casa o fuera), la fase de competición (fase regular o eliminatorias) o el nivel del equipo (mejores/peores equipos). Además, las características del jugador que realiza los lanzamientos tienen una gran importancia respecto a su edad y años de experiencia para afrontar los momentos críticos, así como el puesto de juego que ocupa en el equipo. En este sentido, la combinación de factores del contexto y del jugador, permiten interactuar en el rendimiento del lanzador en los momentos finales de partido durante sus lanzamientos de tiro libre. El presente trabajo de tesis doctoral tiene como objetivo encontrar aquellas variables más relacionadas con la disminución de rendimiento del jugador en los tiros libres durante el último minuto de juego, y la última serie de tiros libres en los partidos ajustados de baloncesto. Para alcanzar el objetivo del estudio se analizaron 124 partidos ajustados (diferencias iguales o inferiores a 2 puntos) de todas las competiciones (fase regular, playoff y copa del Rey) de la liga ACB durante las temporadas 2011-2012 a 2014-2015. Para el registro de variables se analizó el porcentaje de acierto en los tiros libres del lanzador en la liga regular, partido completo, último minuto y última serie. De este modo se trató de analizar qué variables del contexto y del jugador permitían explicar el rendimiento en los tiros libres durante el último minuto, y la última serie de tiros libres del partido. Por otro lado, se trató de conocer el grado de asociación entre el descenso del rendimiento (drop) en los momentos finales de partido, y las variables estudiadas del jugador: puesto de juego, edad, y años de experiencia profesional; mientras que las variables situacionales consideradas fueron: fase de competición, localización, clasificación, tiempo restante, y diferencia parcial en el marcador. Para el análisis de los datos se realizaron dos modelos estadísticos: 1º) un modelo de regresión lineal múltiple para conocer el efecto de las variables independientes en el porcentaje de aciertos del lanzador en el último minuto, y en la última serie de tiros libres del partido; y 2º) un análisis de regresión logística binomial para analizar la relación existente entre la probabilidad de tener un drop (disminución del rendimiento) y las características del lanzador, y las variables situacionales. Los resultados del modelo de regresión lineal múltiple mostraron efectos negativos significativos en el porcentaje de acierto en los tiros libres durante el último minuto, cuando los lanzadores son los pívots (-19,45%). Por otro lado, los resultados durante la última serie mostraron el efecto negativo significativo sobre la posición de pívot (- 19,30%) y la diferencia parcial en el marcador (-3,33%, para cada punto de diferencia en el marcador) en el porcentaje de acierto en los tiros libres. Las variables independientes edad, experiencia profesional, clasificación en la liga regular, fase de competición, localización, y tiempo restante, no revelaron efectos significativos en los modelos de regresión lineal. Los resultados de la regresión logística binomial revelaron que las variables experiencia profesional entre 13 y 18 años (OR = 4,63), jugar de alero (OR = 23,01), y jugar de base (OR = 10,68) están relacionadas con una baja probabilidad de disminuir el rendimiento durante el último minuto del partido; mientras que ir ganando, aumenta esta probabilidad (OR = 0,06). Además, los resultados de la última serie mostraron una menor disminución del rendimiento del jugador cuando tiene entre 13 y 18 años de experiencia (OR = 4,28), y juega de alero (OR = 8,06) o base (OR = 6,34). Por el contrario, las variables situacionales relacionadas con esa disminución del rendimiento del jugador son las fases eliminatorias (OR = 0,22) e ir ganando (OR = 0,04). Los resultados principales del estudio mostraron que existe una disminución del rendimiento del jugador en su porcentaje de acierto en los tiros libres durante el último minuto y en la última serie de lanzamientos del partido, y que está relacionada significativamente con la edad, experiencia profesional, puesto de juego del jugador, y diferencia parcial en el marcador. Encontrando relación también con la fase de competición, durante la última serie de tiros libres del partido. Esta información supone una valiosa información para el entrenador, y su aplicación en el ámbito competitivo real. En este sentido, la creación de simulaciones en el apartado de aplicaciones prácticas, permite predecir el porcentaje de acierto en los tiros libres de un jugador durante los momentos de mayor presión del partido, en base a su perfil de rendimiento. Lo que puede servir para realizar una toma de decisiones más idónea, con el objetivo de lograr el mejor resultado. Del mismo modo, orienta el tipo de proceso de entrenamiento que se ha de seguir, en relación a los jugadores más tendentes al drop, con el objetivo de minimizar el efecto de la presión sobre su capacidad para rendir adecuadamente en la ejecución de los tiros libres, y lograr de esta manera un rendimiento más homogéneo en todos los jugadores del equipo en esta faceta del juego, durante el momento crítico del final de partido. ABSTRACT. The final minute of a close game in basketball is a critical moment which is subject to many factors that influence its development. Thus, the success rate in free-throws during that period will determine, in many cases, the outcome of the game. Decrease of performance (drop) in this facet of play under pressure conditions, may be related to studied own multiple sports context variables, such as the remaining seconds of possession, the situation in the score (to be winning, drawing, or losing) the location of the match (playing at home or away), the competition phase (regular season or playoffs) or team level (best/worst teams). In addition, the characteristics of the player are very important related to his age and years of experience to face the critical moments, as well as his playing position into team. In this sense, the combination of factors in context and player, allows interact about performance of shooter in the final moments of the game during his free-throw shooting. The aim of this present doctoral thesis was find the most related variables to player´s drop in free throws in the last minute of the game and the last row of free-throws in closed games of basketball. To achieve the objective of the study, 124 closed games (less or equal than 2 points difference) were analyzed in every copetition in ACB league (regular season, playoff and cup) from 2011-2012 to 2014-2015 seasons. To record the variables, the percentage of success of the shooter in regular season, full game, last minute, and last row were analyzed. This way, it is tried to analyze which player and context variables explain the free-throw performance in last minute and last row of the game. On the other hand, it is tried to determine the degree of association between decrease of performance (drop) of the player in the final moments, and studied player variables: playing position, age, and years of professional experience; while considered situational variables considered were: competition phase, location, classification, remaining time, and score-line. For data analysis were performed two statistical models: 1) A multiple linear regression model to determine the effect of the independent variables in the succsess percentage of shooter at the last minute, and in the last row of free-throws in the game; and 2) A binomial logistic regression analysis to analyze the relationship between the probability of a drop (lower performance) and the characteristics of the shooter and situational variables. The results of multiple linear regression model showed significant negative effects on the free-throw percentage during last minute, when shooters are centers (-19.45%). On the other hand, results in the last series showed the significant negative effect on the center position (-19.30%) and score-line (-3.33% for each point difference in the score) in the free-throw percentage. The independent variables age, professional experience, ranking in the regular season, competition phase, location, and remaining time, revealed no significant effects on linear regression models. The results of the binomial logistic regression showed that the variables professional experience between 13 and 18 years (OR = 4.63), playing forward (OR = 23.01) and playing guard (OR = 10.68) are related to reduce the probability to decrease the performance during the last minute of the game. While wining, increases it (OR = 0.06). Furthermore, the results of the last row showed a reduction in performance degradation when player is between 13 and 18 years of experience (OR = 4.28), and playing forward (OR = 8.06) or guard (OR = 6.34). By contrast, the variables related to the decrease in performance of the player are the knockout phases (OR = 0.22) and wining (OR = 0.04). The main results of the study showed that there is a decrease in performance of the player in the percentage of success in free-throws in the last minute and last row of the game, and it is significantly associated with age, professional experience, and player position. Finding relationship with the competition phase, during last row of free-throws of the game too. This information is a valuable information for the coach, for applying in real competitive environment. In this sense, create simulations in the section of practical applications allows to predict the success rate of free-throw of a player during the most pressing moments of the game, based on their performance profile. What can be used to take more appropriate decisions in order to achieve the best result. Similarly, guides the type of training process must be followed in relation to the most favorable players to drop, in order to minimize the effect of pressure on their ability to perform properly in the execution of the free-throws. And to achieve, in this way, a more consistent performance in all team players in this facet of the game, during the critical moment in the final of the game.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La producción de huevos disminuye a medida que las ponedoras envejecen. Un método para contrarrestar, al menos parcialmente, esta evolución natural del rendimiento productivo es la muda inducida. El rendimiento productivo de las gallinas tras la muda se debe a un proceso de rejuvenecimiento fisiológico de las aves, relacionado con la regresión del ovario y del oviducto durante la muda, siendo la pérdida de peso corporal decisiva para la regresión de estos órganos (Brake y Thaxton , 1979). En este trabajo estudiamos los efectos de 3 dietas distintas, utilizadas para inducir la muda (salvado de trigo, cebada y pienso comercial suministrado de forma restringida), sobre la pérdida de peso vivo, sobre la regresión del ovario y del oviducto, y sobre los rendimientos productivos posteriores, en gallinas ponedoras de 2 estirpes comerciales, alojadas con dos densidades diferentes (4 y 6 gallinas, por jaula). Se trabajó con 120 gallinas de cada estirpe, sacrificándose 36 animales (18+18) para poder evaluar la regresión del ovario-oviducto. La menor pérdida de peso se produjo con el salvado y con la cebada, aunque la intensidad de puesta (IP), en las 6 primeras semanas postmuda no varió entre tratamientos, excepto en gallinas ligeras mudadas con salvado de trigo, que alcanzaron una IP significativamente menor . Tampoco tuvo efecto significativo el número de gallinas por jaula sobre la IP, ni sobre la pérdida de peso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents the design and results of applying a model for logistics management in industrial SMEs. To identify the variables in the model, we conducted a thorough review of the state of the art logistics management; to characterize SMEs, developed a Likert questionnaire with the variables collected in the previous step. Once validated the questionnaire, was applied the same to a group of seventy-five (75) SMEs in the industrial sector, located in Bolivar State, Venezuela. To determine statistically the most relevant variables of management was used exploratory factor analysis technique applied to the data collected. The qualification obtained for all companies evaluated (47% compliance), highlights the weakness of logistics management in industrial SME.