853 resultados para modelo de regresión lineal


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Una de las mayores incertidumbres que se presentan en el cálculo de un túnel y en la determinación de su vida residual es, sin duda, el conocimiento del estado tensional del terrerno, el cual es precisamente la principal solicitación a que se ve sometida esta estructura.El método que se propone está basado en un tratamiento estadístico de ciertas mediciones experimentales obtenidas in situ sobre el túnel en construcción, junto con la información determinista relativa al tipo de estructura utilizada. El modelo estadístico empleado es lineal y formalmente análogo a un modelo de regresión, por lo que le es aplicable la misma teoría. Este hecho permite no sólo la estimación de los parámetros que determinan la distribución de presión, si no también su margen de variación estadístico mediante el cálculo de intervalos de confianza.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In the last few years there has been a heightened interest in data treatment and analysis with the aim of discovering hidden knowledge and eliciting relationships and patterns within this data. Data mining techniques (also known as Knowledge Discovery in Databases) have been applied over a wide range of fields such as marketing, investment, fraud detection, manufacturing, telecommunications and health. In this study, well-known data mining techniques such as artificial neural networks (ANN), genetic programming (GP), forward selection linear regression (LR) and k-means clustering techniques, are proposed to the health and sports community in order to aid with resistance training prescription. Appropriate resistance training prescription is effective for developing fitness, health and for enhancing general quality of life. Resistance exercise intensity is commonly prescribed as a percent of the one repetition maximum. 1RM, dynamic muscular strength, one repetition maximum or one execution maximum, is operationally defined as the heaviest load that can be moved over a specific range of motion, one time and with correct performance. The safety of the 1RM assessment has been questioned as such an enormous effort may lead to muscular injury. Prediction equations could help to tackle the problem of predicting the 1RM from submaximal loads, in order to avoid or at least, reduce the associated risks. We built different models from data on 30 men who performed up to 5 sets to exhaustion at different percentages of the 1RM in the bench press action, until reaching their actual 1RM. Also, a comparison of different existing prediction equations is carried out. The LR model seems to outperform the ANN and GP models for the 1RM prediction in the range between 1 and 10 repetitions. At 75% of the 1RM some subjects (n = 5) could perform 13 repetitions with proper technique in the bench press action, whilst other subjects (n = 20) performed statistically significant (p < 0:05) more repetitions at 70% than at 75% of their actual 1RM in the bench press action. Rate of perceived exertion (RPE) seems not to be a good predictor for 1RM when all the sets are performed until exhaustion, as no significant differences (p < 0:05) were found in the RPE at 75%, 80% and 90% of the 1RM. Also, years of experience and weekly hours of strength training are better correlated to 1RM (p < 0:05) than body weight. O'Connor et al. 1RM prediction equation seems to arise from the data gathered and seems to be the most accurate 1RM prediction equation from those proposed in literature and used in this study. Epley's 1RM prediction equation is reproduced by means of data simulation from 1RM literature equations. Finally, future lines of research are proposed related to the problem of the 1RM prediction by means of genetic algorithms, neural networks and clustering techniques. RESUMEN En los últimos años ha habido un creciente interés en el tratamiento y análisis de datos con el propósito de descubrir relaciones, patrones y conocimiento oculto en los mismos. Las técnicas de data mining (también llamadas de \Descubrimiento de conocimiento en bases de datos\) se han aplicado consistentemente a lo gran de un gran espectro de áreas como el marketing, inversiones, detección de fraude, producción industrial, telecomunicaciones y salud. En este estudio, técnicas bien conocidas de data mining como las redes neuronales artificiales (ANN), programación genética (GP), regresión lineal con selección hacia adelante (LR) y la técnica de clustering k-means, se proponen a la comunidad del deporte y la salud con el objetivo de ayudar con la prescripción del entrenamiento de fuerza. Una apropiada prescripción de entrenamiento de fuerza es efectiva no solo para mejorar el estado de forma general, sino para mejorar la salud e incrementar la calidad de vida. La intensidad en un ejercicio de fuerza se prescribe generalmente como un porcentaje de la repetición máxima. 1RM, fuerza muscular dinámica, una repetición máxima o una ejecución máxima, se define operacionalmente como la carga máxima que puede ser movida en un rango de movimiento específico, una vez y con una técnica correcta. La seguridad de las pruebas de 1RM ha sido cuestionada debido a que el gran esfuerzo requerido para llevarlas a cabo puede derivar en serias lesiones musculares. Las ecuaciones predictivas pueden ayudar a atajar el problema de la predicción de la 1RM con cargas sub-máximas y son empleadas con el propósito de eliminar o al menos, reducir los riesgos asociados. En este estudio, se construyeron distintos modelos a partir de los datos recogidos de 30 hombres que realizaron hasta 5 series al fallo en el ejercicio press de banca a distintos porcentajes de la 1RM, hasta llegar a su 1RM real. También se muestra una comparación de algunas de las distintas ecuaciones de predicción propuestas con anterioridad. El modelo LR parece superar a los modelos ANN y GP para la predicción de la 1RM entre 1 y 10 repeticiones. Al 75% de la 1RM algunos sujetos (n = 5) pudieron realizar 13 repeticiones con una técnica apropiada en el ejercicio press de banca, mientras que otros (n = 20) realizaron significativamente (p < 0:05) más repeticiones al 70% que al 75% de su 1RM en el press de banca. El ínndice de esfuerzo percibido (RPE) parece no ser un buen predictor del 1RM cuando todas las series se realizan al fallo, puesto que no existen diferencias signifiativas (p < 0:05) en el RPE al 75%, 80% y el 90% de la 1RM. Además, los años de experiencia y las horas semanales dedicadas al entrenamiento de fuerza están más correlacionadas con la 1RM (p < 0:05) que el peso corporal. La ecuación de O'Connor et al. parece surgir de los datos recogidos y parece ser la ecuación de predicción de 1RM más precisa de aquellas propuestas en la literatura y empleadas en este estudio. La ecuación de predicción de la 1RM de Epley es reproducida mediante simulación de datos a partir de algunas ecuaciones de predicción de la 1RM propuestas con anterioridad. Finalmente, se proponen futuras líneas de investigación relacionadas con el problema de la predicción de la 1RM mediante algoritmos genéticos, redes neuronales y técnicas de clustering.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Se ha desarrollado un modelo implícito no lineal 2-D en EF para la resolución de las ecuaciones de aguas poco profundas. La discretización espacial se ha realizado por medio de elementos lagrangianos isoparamétricos. Se ha aplicado la integración numérica de Simpson para obtener las matrices elementales, y para la integración temporal se han utilizado diferentes esquemas en diferencias finitas, comprobándose el modelo con diferentes ejemplos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El MC en baloncesto es aquel fenómeno relacionado con el juego que presenta unas características particulares determinadas por la idiosincrasia de un equipo y puede afectar a los protagonistas y por ende al devenir del juego. En la presente Tesis se ha estudiado la incidencia del MC en Liga A.C.B. de baloncesto y para su desarrollo en profundidad se ha planteado dos investigaciones una cuantitativa y otra cualitativa cuya metodología se detalla a continuación: La investigación cuantitativa se ha basado en la técnica de estudio del “Performance analysis”, para ello se han estudiado cuatro temporadas de la Liga A.C.B. (del 2007/08 al 2010/11), tal y como refleja en la bibliografía consultada se han tomado como momentos críticos del juego a los últimos cinco minutos de partidos donde la diferencia de puntos fue de seis puntos y todos los Tiempos Extras disputados, de tal manera que se han estudiado 197 momentos críticos. La contextualización del estudio se ha hecho en función de la variables situacionales “game location” (local o visitante), “team quality” (mejores o peores clasificados) y “competition” (fases de LR y Playoff). Para la interpretación de los resultados se han realizado los siguientes análisis descriptivos: 1) Análisis Discriminante, 2) Regresión Lineal Múltiple; y 3) Análisis del Modelo Lineal General Multivariante. La investigación cualitativa se ha basado en la técnica de investigación de la entrevista semiestructurada. Se entrevistaron a 12 entrenadores que militaban en la Liga A.C.B. durante la temporada 2011/12, cuyo objetivo ha sido conocer el punto de vista que tiene el entrenador sobre el concepto del MC y que de esta forma pudiera dar un enfoque más práctico basado en su conocimiento y experiencia acerca de cómo actuar ante el MC en el baloncesto. Los resultados de ambas investigaciones coinciden en señalar la importancia del MC sobre el resultado final del juego. De igual forma, el concepto en sí entraña una gran complejidad por lo que se considera fundamental la visión científica de la observación del juego y la percepción subjetiva que presenta el entrenador ante el fenómeno, para la cual los aspectos psicológicos de sus protagonistas (jugadores y entrenadores) son determinantes. ABSTRACT The Critical Moment (CM) in basketball is a related phenomenon with the game that has particular features determined by the idiosyncrasies of a team and can affect the players and therefore the future of the game. In this Thesis we have studied the impact of CM in the A.C.B. League and from a profound development two investigations have been raised, quantitative and qualitative whose methodology is as follows: The quantitative research is based on the technique of study "Performance analysis", for this we have studied four seasons in the A.C.B. League (2007/08 to 2010/11), and as reflected in the literature the Critical Moments of the games were taken from the last five minutes of games where the point spread was six points and all overtimes disputed, such that 197 critical moments have been studied. The contextualization of the study has been based on the situational variables "game location" (home or away), "team quality" (better or lower classified) and "competition" (LR and Playoff phases). For the interpretation of the results the following descriptive analyzes were performed: 1) Discriminant Analysis, 2) Multiple Linear Regression Analysis; and 3) Analysis of Multivariate General Linear Model. Qualitative research is based on the technique of investigation of a semi-structured interview. 12 coaches who belonged to the A.C.B. League were interviewed in seasons 2011/12, which aimed to determine the point of view that the coach has on the CM concept and thus could give a more practical approach based on their knowledge and experience about how to deal with the CM in basketball. The results of both studies agree on the importance of the CM on the final outcome of the game. Similarly, the concept itself is highly complex so the scientific view of the observation of the game is considered essential as well as the subjective perception the coach presents before the phenomenon, for which the psychological aspects of their characters (players and coaches) are crucial.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El nitrógeno (N) y el fósforo (P) son nutrientes esenciales en la producción de cultivos. El desarrollo de los fertilizantes de síntesis durante el siglo XX permitió una intensificación de la agricultura y un aumento de las producciones pero a su vez el gran input de nutrientes ha resultado en algunos casos en sistemas poco eficientes incrementando las pérdidas de estos nutrientes al medio ambiente. En el caso del P, este problema se agrava debido a la escasez de reservas de roca fosfórica necesaria para la fabricación de fertilizantes fosfatados. La utilización de residuos orgánicos en agricultura como fuente de N y P es una buena opción de manejo que permite valorizar la gran cantidad de residuos que se generan. Sin embargo, es importante conocer los procesos que se producen en el suelo tras la aplicación de los mismos, ya que influyen en la disponibilidad de nutrientes que pueden ser utilizados por el cultivo así como en las pérdidas de nutrientes de los agrosistemas que pueden ocasionar problemas de contaminación. Aunque la dinámica del N en el suelo ha sido más estudiada que la del P, los problemas importantes de contaminación por nitratos en zonas vulnerables hacen necesaria la evaluación de aquellas prácticas de manejo que pudieran agravar esta situación, y en el caso de los residuos orgánicos, la evaluación de la respuesta agronómica y medioambiental de la aplicación de materiales con un alto contenido en N (como los residuos procedentes de la industria vinícola y alcoholera). En cuanto al P, debido a la mayor complejidad de su ciclo y de las reacciones que ocurren en el suelo, hay un mayor desconocimiento de los factores que influyen en su dinámica en los sistemas suelo-planta, lo que supone nuevas oportunidades de estudio en la evaluación del uso agrícola de los residuos orgánicos. Teniendo en cuenta los conocimientos previos sobre cada nutriente así como las necesidades específicas en el estudio de los mismos, en esta Tesis se han evaluado: (1) el efecto de la aplicación de residuos procedentes de la industria vinícola y alcoholera en la dinámica del N desde el punto de vista agronómico y medioambiental en una zona vulnerable a la contaminación por nitratos; y (2) los factores que influyen en la disponibilidad de P en el suelo tras la aplicación de residuos orgánicos. Para ello se han llevado a cabo incubaciones de laboratorio así como ensayos de campo que permitieran evaluar la dinámica de estos nutrientes en condiciones reales. Las incubaciones de suelo en condiciones controladas de humedad y temperatura para determinar el N mineralizado se utilizan habitualmente para estimar la disponibilidad de N para el cultivo así como el riesgo medioambiental. Por ello se llevó a cabo una incubación en laboratorio para conocer la velocidad de mineralización de N de un compost obtenido a partir de residuos de la industria vinícola y alcoholera, ampliamente distribuida en Castilla-La Mancha, región con problemas importantes de contaminación de acuíferos por nitratos. Se probaron tres dosis crecientes de compost correspondientes a 230, 460 y 690 kg de N total por hectárea que se mezclaron con un suelo franco arcillo arenoso de la zona. La evolución del N mineral en el suelo a lo largo del tiempo se ajustó a un modelo de regresión no lineal, obteniendo valores bajos de N potencialmente mineralizable y bajas contantes de mineralización, lo que indica que se trata de un material resistente a la mineralización y con una lenta liberación de N en el suelo, mineralizándose tan solo 1.61, 1.33 y 1.21% del N total aplicado con cada dosis creciente de compost (para un periodo de seis meses). Por otra parte, la mineralización de N tras la aplicación de este material también se evaluó en condiciones de campo, mediante la elaboración de un balance de N durante dos ciclos de cultivo (2011 y 2012) de melón bajo riego por goteo, cultivo y manejo agrícola muy característicos de la zona de estudio. Las constantes de mineralización obtenidas en el laboratorio se ajustaron a las temperaturas reales en campo para predecir el N mineralizado en campo durante el ciclo de cultivo del melón, sin embargo este modelo generalmente sobreestimaba el N mineralizado observado en campo, por la influencia de otros factores no tenidos en cuenta para obtener esta predicción, como el N acumulado en el suelo, el efecto de la planta o las fluctuaciones de temperatura y humedad. Tanto el ajuste de los datos del laboratorio al modelo de mineralización como las predicciones del mismo fueron mejores cuando se consideraba el efecto de la mezcla suelo-compost que cuando se aislaba el N mineralizado del compost, mostrando la importancia del efecto del suelo en la mineralización del N procedente de residuos orgánicos. Dado que esta zona de estudio ha sido declarada vulnerable a la contaminación por nitratos y cuenta con diferentes unidades hidrológicas protegidas, en el mismo ensayo de campo con melón bajo riego por goteo se evaluó el riesgo de contaminación por nitratos tras la aplicación de diferentes dosis de compost bajo dos regímenes de riego, riego ajustado a las necesidades del cultivo (90 ó 100% de la evapotranspiración del cultivo (ETc)) o riego excedentario (120% ETc). A lo largo del ciclo de cultivo se estimó semanalmente el drenaje mediante la realización de un balance hídrico, así como se tomaron muestras de la solución de suelo y se determinó su concentración de nitratos. Para evaluar el riesgo de contaminación de las aguas subterráneas asociado con estas prácticas, se utilizaron algunos índices medioambientales para determinar la variación en la calidad del agua potable (Índice de Impacto (II)) y en la concentración de nitratos del acuífero (Índice de Impacto Ambiental (EII)). Para combinar parámetros medioambientales con parámetros de producción, se calculó la eficiencia de manejo. Se observó que la aplicación de compost bajo un régimen de riego ajustado no aumentaba el riesgo de contaminación de las aguas subterráneas incluso con la aplicación de la dosis más alta. Sin embargo, la aplicación de grandes cantidades de compost combinada con un riego excedentario supuso un incremento en el N lixiviado a lo largo del ciclo de cultivo, mientras que no se obtuvieron mayores producciones con respecto al riego ajustado. La aplicación de residuos de la industria vinícola y alcoholera como fuente de P fue evaluada en suelos calizos caracterizados por una alta capacidad de retención de P, lo cual en algunos casos limita la disponibilidad de este nutriente. Para ello se llevó a cabo otro ensayo de incubación con dos suelos de diferente textura, con diferente contenido de carbonato cálcico, hierro y con dos niveles de P disponible; a los que se aplicaron diferentes materiales procedentes de estas industrias (con y sin compostaje previo) aportando diferentes cantidades de P. A lo largo del tiempo se analizó el P disponible del suelo (P Olsen) así como el pH y el carbono orgánico disuelto. Al final de la incubación, con el fin de estudiar los cambios producidos por los diferentes residuos en el estado del P del suelo se llevó a cabo un fraccionamiento del P inorgánico del suelo, el cual se separó en P soluble y débilmente enlazado (NaOH-NaCl-P), P soluble en reductores u ocluido en los óxidos de Fe (CBD-P) y P poco soluble precipitado como Ca-P (HCl-P); y se determinó la capacidad de retención de P así como el grado de saturación de este elemento en el suelo. En este ensayo se observó que, dada la naturaleza caliza de los suelos, la influencia de la cantidad de P aplicado con los residuos en el P disponible sólo se producía al comienzo del periodo de incubación, mientras que al final del ensayo el incremento en el P disponible del suelo se igualaba independientemente del P aplicado con cada residuo, aumentando el P retenido en la fracción menos soluble con el aumento del P aplicado. Por el contrario, la aplicación de materiales orgánicos menos estabilizados y con un menor contenido en P, produjo un aumento en las formas de P más lábiles debido a una disolución del P retenido en la fracción menos lábil, lo cual demostró la influencia de la materia orgánica en los procesos que controlan el P disponible en el suelo. La aplicación de residuos aumentó el grado de saturación de P de los suelos, sin embargo los valores obtenidos no superaron los límites establecidos que indican un riesgo de contaminación de las aguas. La influencia de la aplicación de residuos orgánicos en las formas de P inorgánico y orgánico del suelo se estudió además en un suelo ácido de textura areno francosa tras la aplicación en campo a largo plazo de estiércol vacuno y de compost obtenido a partir de biorresiduos, así como la aplicación combinada de compost y un fertilizante mineral (superfosfato tripe), en una rotación de cultivos. En muestras de suelo recogidas 14 años después del establecimiento del experimento en campo, se determinó el P soluble y disponible, la capacidad de adsorción de P, el grado de saturación de P así como diferentes actividades enzimáticas (actividad deshidrogenasa, fosfatasa ácida y fosfatasa alcalina). Las diferentes formas de P orgánico en el suelo se estudiaron mediante una técnica de adición de enzimas con diferentes substratos específicos a extractos de suelo de NaOH-EDTA, midiendo el P hidrolizado durante un periodo de incubación por colorimetría. Las enzimas utilizadas fueron la fosfatasa ácida, la nucleasa y la fitasa las cuales permitieron identificar monoésteres hidrolizables (monoester-like P), diésteres (DNA-like P) e inositol hexaquifosfato (Ins6P-like P). La aplicación a largo plazo de residuos orgánicos aumentó el P disponible del suelo proporcionalmente al P aplicado con cada tipo de fertilización, suponiendo un mayor riesgo de pérdidas de P dado el alto grado de saturación de este suelo. La aplicación de residuos orgánicos aumentó el P orgánico del suelo resistente a la hidrólisis enzimática, sin embargo no influyó en las diferentes formas de P hidrolizable por las enzimas en comparación con las observadas en el suelo sin enmendar. Además, las diferentes formas de P orgánico aplicadas con los residuos orgánicos no se correspondieron con las analizadas en el suelo lo cual demostró que éstas son el resultado de diferentes procesos en el suelo mediados por las plantas, los microorganismos u otros procesos abióticos. En este estudio se encontró una correlación entre el Ins6P-like P y la actividad microbiana (actividad deshidrogenasa) del suelo, lo cual refuerza esta afirmación. Por último, la aplicación de residuos orgánicos como fuente de N y P en la agricultura se evaluó agronómicamente en un escenario real. Se estableció un experimento de campo para evaluar el compost procedente de residuos de bodegas y alcoholeras en el mismo cultivo de melón utilizado en el estudio de la mineralización y lixiviación de N. En este experimento se estudió la aplicación de tres dosis de compost: 1, 2 y 3 kg de compost por metro lineal de plantación correspondientes a 7, 13 y 20 t de compost por hectárea respectivamente; y se estudió el efecto sobre el crecimiento de las plantas, la acumulación de N y P en la planta, así como la producción y calidad del cultivo. La aplicación del compost produjo un ligero incremento en la biomasa vegetal acompañado por una mejora significativa de la producción con respecto a las parcelas no enmendadas, obteniéndose la máxima producción con la aplicación de 2 kg de compost por metro lineal. Aunque los efectos potenciales del N y P fueron parcialmente enmascarados por otras entradas de estos nutrientes en el sistema (alta concentración de nitratos en el agua de riego y ácido fosfórico suministrado por fertirrigación), se observó una mayor acumulación de P uno de los años de estudio que resultó en un aumento en el número de frutos en las parcelas enmendadas. Además, la mayor acumulación de N y P disponible en el suelo al final del ciclo de cultivo indicó el potencial uso de estos materiales como fuente de estos nutrientes. ABSTRACT Nitrogen (N) and phosphorus (P) are essential nutrients in crop production. The development of synthetic fertilizers during the 20th century allowed an intensification of the agriculture increasing crop yields but in turn the great input of nutrients has resulted in some cases in inefficient systems with higher losses to the environment. Regarding P, the scarcity of phosphate rock reserves necessary for the production of phosphate fertilizers aggravates this problem. The use of organic wastes in agriculture as a source of N and P is a good option of management that allows to value the large amount of wastes generated. However, it is important to understand the processes occurring in the soil after application of these materials, as they affect the availability of nutrients that can be used by the crop and the nutrient losses from agricultural systems that can cause problems of contamination. Although soil N dynamic has been more studied than P, the important concern of nitrate pollution in Nitrate Vulnerable Zones requires the evaluation of those management practices that could aggravate this situation, and in the case of organic wastes, the evaluation of the agronomic and environmental response after application of materials with a high N content (such as wastes from winery and distillery industries). On the other hand, due to the complexity of soil P cycle and the reactions that occur in soil, there is less knowledge about the factors that can influence its dynamics in the soil-plant system, which means new opportunities of study regarding the evaluation of the agricultural use of organic wastes. Taking into account the previous knowledge of each nutrient and the specific needs of study, in this Thesis we have evaluated: (1) the effect of the application of wastes from the winery and distillery industries on N dynamics from the agronomic and environmental viewpoint in a vulnerable zone; and (2) the factors that influence P availability in soils after the application of organic wastes. With this purposes, incubations were carried out in laboratory conditions as well as field trials that allow to assess the dynamic of these nutrients in real conditions. Soil incubations under controlled moisture and temperature conditions to determine N mineralization are commonly used to estimate N availability for crops together with the environmental risk. Therefore, a laboratory incubation was conducted in order to determine the N mineralization rate of a compost made from wastes generated in the winery and distillery industries, widely distributed in Castilla-La Mancha, a region with significant problems of aquifers contamination by nitrates. Three increasing doses of compost corresponding to 230, 460 and 690 kg of total N per hectare were mixed with a sandy clay loam soil collected in this area. The evolution of mineral N in soil over time was adjusted to a nonlinear regression model, obtaining low values of potentially mineralizable N and low constants of mineralization, indicating that it is a material resistant to mineralization with a slow release of N, with only 1.61, 1.33 and 1.21% of total N applied being mineralized with each increasing dose of compost (for a period of six months). Furthermore, N mineralization after the application of this material was also evaluated in field conditions by carrying out a N balance during two growing seasons (2011 and 2012) of a melon crop under drip irrigation, a crop and management very characteristic of the area of study. The mineralization constants obtained in the laboratory were adjusted to the actual temperatures observed in the field to predict N mineralized during each growing season, however, this model generally overestimated the N mineralization observed in the field, because of the influence of other factors not taken into account for this prediction, as N accumulated in soil, the plant effect or the fluctuations of temperature and moisture. The fitting of the laboratory data to the model as well as the predictions of N mineralized in the field were better when considering N mineralized from the soil-compost mixture rather than when N mineralized from compost was isolated, underlining the important role of the soil on N mineralization from organic wastes. Since the area of study was declared vulnerable to nitrate pollution and is situated between different protected hydrological units, the risk of nitrate pollution after application of different doses compost was evaluated in the same field trial with melon under two irrigation regimes, irrigation adjusted to the crop needs (90 or 100% of the crop evapotranspiration (ETc)) or excedentary irrigation (120% ETc). Drainage was estimated weekly throughout the growing season by conducting a water balance, samples of the soil solution were taken and the concentration of nitrates was determined. To assess the risk of groundwater contamination associated with these practices, some environmental indices were used to determine the variation in the quality of drinking water (Impact Index (II)) and the nitrates concentration in the groundwater (Environmental Impact Index (EII)). To combine environmental parameters together with yield parameters, the Management Efficiency was calculated. It was observed that the application of compost under irrigation adjusted to the plant needs did not represent a higher risk of groundwater contamination even with the application of the highest doses. However, the application of large amounts of compost combined with an irrigation surplus represented an increase of N leaching during the growing season compared with the unamended plots, while no additional yield with respect to the adjusted irrigation strategy is obtained. The application of wastes derived from the winery and distillery industry as source of P was evaluated in calcareous soils characterized by a high P retention capacity, which in some cases limits the availability of this nutrient. Another incubation experiment was carried out using two soils with different texture, different calcium carbonate and iron contents and two levels of available P; to which different materials from these industries (with and without composting) were applied providing different amounts of P. Soil available P (Olsen P), pH and dissolved organic carbon were analyzed along time. At the end of the incubation, in order to study the changes in soil P status caused by the different residues, a fractionation of soil inorganic P was carried out, which was separated into soluble and weakly bound P (NaOH-NaCl- P), reductant soluble P or occluded in Fe oxides (CBD-P) and P precipitated as poorly soluble Ca-P (HCl-P); and the P retention capacity and degree of P saturation were determined as well. Given the calcareous nature of the soils, the influence of the amount of P applied with the organic wastes in soil available P only occurred at the beginning of the incubation period, while at the end of the trial the increase in soil available P equalled independently of the amount of P applied with each residue, increasing the P retained in the least soluble fraction when increasing P applied. Conversely, the application of less stabilized materials with a lower content of P resulted in an increase in the most labile P forms due to dissolution of P retained in the less labile fraction, demonstrating the influence of organic matter addition on soil P processes that control P availability in soil. As expected, the application of organic wastes increased the degree of P saturation in the soils, however the values obtained did not exceed the limits considered to pose a risk of water pollution. The influence of the application of organic wastes on inorganic and organic soil P forms was also studied in an acid loamy sand soil after long-term field application of cattle manure and biowaste compost and the combined application of compost and mineral fertilizer (triple superphosphate) in a crop rotation. Soil samples were collected 14 years after the establishment of the field experiment, and analyzed for soluble and available P, P sorption capacity, degree of P saturation and enzymatic activities (dehydrogenase, acid phosphatase and alkaline phosphatase). The different forms of organic P in soil were determined by using an enzyme addition technique, based on adding enzymes with different substrate specificities to NaOH-EDTA soil extracts, measuring the hydrolyzed P colorimetrically after an incubation period. The enzymes used were acid phosphatase, nuclease and phytase which allowed to identify hydrolyzable monoesters (monoester-like P) diesters (DNA-like P) and inositol hexakisphosphate (Ins6P-like P). The long-term application of organic wastes increased soil available P proportionally to the P applied with each type of fertilizer, assuming a higher risk of P losses given the high degree of P saturation of this soil. The application of organic wastes increased soil organic P resistant to enzymatic hydrolysis, but no influence was observed regarding the different forms of enzyme hydrolyzable organic P compared to those observed in the non-amended soil. Furthermore, the different forms of organic P applied with the organic wastes did not correspond to those analyzed in the soil which showed that these forms in soil are a result of multifaceted P turnover processes in soil affected by plants, microorganisms and abiotic factors. In this study, a correlation between Ins6P-like P and the microbial activity (dehydrogenase activity) of soil was found, which reinforces this claim. Finally, the application of organic wastes as a source of N and P in agriculture was evaluated agronomically in a real field scenario. A field experiment was established to evaluate the application of compost made from wine-distillery wastes in the same melon crop used in the experiments of N mineralization and leaching. In this experiment the application of three doses of compost were studied: 1 , 2 and 3 kg of compost per linear meter of plantation corresponding to 7, 13 and 20 tonnes of compost per hectare respectively; and the effect on plant growth, N and P accumulation in the plant as well as crop yield and quality was studied. The application of compost produced a slight increase in plant biomass accompanied by a significant improvement in crop yield with respect to the unamended plots, obtaining the maximum yield with the application of 2 kg of compost per linear meter. Although the potential effects of N and P were partially masked by other inputs of these nutrients in the system (high concentration of nitrates in the irrigation water and phosphoric acid supplied by fertigation), an effect of P was observed the first year of study resulting in a greater plant P accumulation and in an increase in the number of fruits in the amended plots. In addition, the higher accumulation of available N and P in the topsoil at the end of the growing season indicated the potential use of this material as source of these nutrients.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El consumo mundial, impulsor del desarrollo y crecimiento económico de los pueblos, no ha sido igual para todas las naciones, ya que sus efectos han sido diferentes para los ciudadanos de los países del Norte y los del Sur, principalmente por dos razones: una, porque han originado complejos y diferentes estilos de vida y aspiraciones, lo que ha originado grandes diferencias entre los individuos de unos y otros países, y, dos, por su falta de valores sociales y éticos. Ante esta situación, la sociedad en su conjunto debe tomar conciencia de este hecho, y a través de un consumo responsable y de un mayor conocimiento de las relaciones comerciales entre los pueblos, debe optar por consumir productos elaborados bajo criterios de justicia y equidad. Para ayudar a alcanzar estos objetivos de equidad, solidaridad, justicia y ética, nació el Comercio Justo, que, en el caso de España, llegó con veinte años de retraso en la década de los ochenta. Aunque a día de hoy sus ventas crecen a un buen ritmo, siguen siendo inferiores al resto de los países europeos, por cuatro razones: (1) el desconocimiento que la mayoría de los potenciales consumidores tienen de este movimiento social; (2) la dificultad de acceder a los productos que comercializan; (3) el poco impulso que se ofrece desde las Administraciones Públicas; y, (4) porque hay pocas investigaciones en las que se haya analizado el Comercio Justo desde la perspectiva de la demanda, lo que ha implicado que no haya un conocimiento profundo sobre los consumidores de este tipo de productos y sobre sus motivaciones de compra. En base a todo lo expuesto, el presente trabajo se concibe como un estudio exploratorio, que tiene como objetivo principal analizar el perfil de los consumidores y no consumidores de productos de Comercio Justo, sus motivaciones de compra y no compra, así como las variables que influyen en la intención de compra futura, tanto en el segmento de consumidores actuales, como en el segmento de no consumidores de este tipo de productos. Para la realización de este trabajo, se ha utilizado, por una parte, una metodología cualitativa, que ha permitido acceder a la información sobre las opiniones y actitudes que intervienen en los procesos de decisión de compra; y, por otra, una metodología cuantitativa, a través de una encuesta online dirigida a 6.500 individuos, que ha permitido tener información, a través de sendos análisis descriptivos univariante y bivariante, de los individuos encuestados sobre el objeto del estudio. Para validar los modelos y contrastar las hipótesis planteadas, se ha utilizado el análisis de fiabilidad y validación de las escalas de medición seleccionadas (Alpha de Cronbach); el análisis factorial exploratorio, para comprobar la dimensionalidad y validez convergente de las escalas de medida; el análisis factorial confirmatorio, para validar la idoneidad de los modelos de medida propuestos; la regresión logística, para comprobar la validez del modelo general de la probabilidad de la compra o no compra de productos de Comercio Justo; y la regresión lineal múltiple, para comprobar la validez de los modelos específicos de intención de compra futura en los segmentos de compradores y de no compradores. Para realizar todos estos análisis, se han utilizado las herramientas informáticas SPSS v21 y AMOS. Las principales conclusiones del trabajo son: (1) que se deben establecer unos criterios claros que definan quién es quién en el movimiento de Comercio Justo, sus fines, sus objetivos, los productos que comercializan, así como su funcionamiento y desarrollo en España; (2) que, a pesar de las grandes ventajas y posibilidades del Comercio Justo, hay una falta de demanda de estos productos por parte de los consumidores responsables, debido principalmente a la falta de información-comunicación sobre el propio movimiento, y, muy especialmente, a la falta de información sobre los productos, los canales de comercialización, las políticas de precios, las políticas de comunicación, etc., y a la necesidad de que estos productos estén accesibles en los lugares donde los consumidores hacen su compra habitual; y (3) que el Comercio Justo español debe afrontar una serie de desafíos, como son la coordinación entre las diferentes organizaciones que participan en su desarrollo; la sensibilización de los consumidores; la creación de una imagen de marca que defina de una manera clara y sencilla qué es el Comercio Justo; la orientación al cliente y no al producto; y extender la red de comercialización de productos de Comercio Justo a los canales donde los consumidores hacen su compra habitualmente. ABSTRACT Global consumption, the driver of economic growth and development of nations, is not the same for all countries, since its effects have been different on people coming from the North or the South. This is due mainly to two reasons: firstly, because they have developed complex and different lifestyles and aspirations, which have led to significant differences between individuals of one country and another and secondly, because they lack social and ethical values. Given this situation, society as a whole should be aware of this fact, and through responsible consumption and a greater knowledge of trade relations between countries, should opt for consuming products produced with criteria of justice and equity. Fair Trade began as a way to help reach these goals of equity, solidarity, justice and ethics. In the case of Spain it did not start until 20 years later, in the eighties. Although today sales of Fair Trade products are growing at a good rate, they are still below that of other European countries, for four reasons: (1) unawareness of this social movement; (2) the difficult access to these products; (3) insufficient government support; (4) the limited research carried out to analyse Fair Trade from the perspective of demand, resulting in a lack of knowledge about this type of consumer and their purchasing motivations. Based on the above, the present study is designed as an exploratory investigation, aimed at analyzing the profile of consumers and non-consumers of Fair Trade, their motivations for buying and not buying, as well as the variables which influence future purchase intention in both the current consumer segment, and the non-user segment of such products. To carry out this study we have used, on the one hand, a qualitative methodology, to obtain information about the views and attitudes involved in the purchase decision process; and on the other, a quantitative methodology, through an online survey of 6,500 individuals, which provided information through two separate univariate and bivariate descriptive analysis, of the individuals interviewed about the object of this study. To validate the models and contrast hypotheses, we have used the reliability analysis and validation of the selected measurement scales (Cronbach's Alpha); exploratory factor analysis to verify the dimensionality and convergent validity of the measurement scales; confirmatory factor analysis to validate the adequacy of the models of measurement proposed; logistic regression, to verify the validity of the general model of the probability of buying or not buying Fair Trade products; and multiple linear regression to test the validity of specific models in future purchase intention in the segments of buyers and non-buyers. To carry out these analyses, we used SPSS v21 software tools and AMOS. The principal conclusions of the investigation are: (1) the need to establish clear criteria which define who is who in the Fair Trade movement, its goals, objectives, the products they sell, as well as its operation and development in Spain; (2) that despite the great advantages and possibilities of Fair Trade, there is a lack of demand for these products by responsible consumers, mainly due to the lack of information-communication about the movement itself, and especially on the range of products, sales channels, pricing policies, communication policies, etc., and the need for these products to be available in places where consumers make their usual purchase; and (3) that Spanish Fair Trade must address a number of challenges such as: coordination between the different organizations involved in trade development; consumer awareness; creation of a brand image that defines in a clear and simple way what Fair Trade is; focus on the customer rather than the product; and expansion of the network of Fair Trade sales outlets to include the channels where consumers usually make their purchases.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Análisis de Regresión Lineal. Simple y múltiple. Supuestos y análisis gráfico.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El artículo analiza los cambios político electorales en León, Guanajuato, a partir de cómo se fue configurando el desplazamiento del Partido Revolucionario Institucional (PRI) por el Partido Acción Nacional (PAN) en este ayuntamiento en el año 1988, hasta el cambio de correlación de fuerzas en el año 2012. Ello da pauta para analizar los escenarios que podrían caracterizar las próximas elecciones de este año. Con este objetivo se propone un modelo estadístico para dicho estudio: el modelo de regresión Dirichlet, el cual permite considerar la naturaleza de los datos electorales.
The article analyzes the electoral changes in León, Guanajuato, based on how it was setting the displacement of the Institutional Revolutionary Party (PRI) by the National Action Party (PAN) in this council in 1988, until the change of correlation forces in 2012, which gives guidelines to analyze the scenarios that could characterize the upcoming elections this year. With this aim the authors proposed a statistical model for the study: the Dirichlet regression model, which allows to consider the nature of electoral data.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo es buscar un modelo reducido de síntomas del Trastorno por Déficit de Atención con Hiperactividad subtipo Combinado (TDAH-C), que presente adecuada validez de criterio para su diagnóstico. La metodología se basa en contexto de estudio epidemiológico. Muestra de 1095 casos entre 6 y 16 años [4.38 % TDAH-C]. Se realiza una selección de casos con primera fase psicométrica de sospecha TDAH-C que requiere que ADHD RS-IV, implementado por padres (PA) y profesores (PR), supere el PC 90. En la segunda fase, los casos seleccionados se evalúan mediante entrevista clínica modelo DISC-IV (DSM-IV) para confirmar TDAH-C. Se implementa regresión logística para buscar modelo parsimonioso de ítems que permita predecir TDAH-C. El modelo de ítems que permite predecir TDAH-C contiene 8 de los 36 ítems del ADHD RS-IV contestados por PA y PR. Considerando las odds ratio del modelo de regresión logística, los ítems del ADHD RS-IV seleccionados son los siguientes 15PR, 1PA, 16PR, 12PA, 17PA, 10PA, 14PA y 4PR. El modelo presenta validez de criterio para TDAH-C clínico (sensibilidad: 97.9 %. Especificidad: 93.8%. Razón de verosimilitud: 16.02). Es posible reducir la lista de síntomas de TDAH-C con buena validez de criterio, manteniendo los que proporcionan mayor discriminación entre TDAH-C y población general.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Determinar la validez concurrente del Sistema de Observación de Tiempo de Instrucción de Condición Física (SOFIT) a través de acelerometría, como método para medir los niveles de actividad física (AF) de los escolares de 1º a 9º durante la clase de educación física en tres colegios públicos de Bogotá, Colombia. Estudio transversal entre Octubre de 2014 y Marzo de 2015. La medición se realizó en tres colegios públicos de Bogotá. Participaron 48 estudiantes (25 niñas; 23 niños), entre 5 y 17 años, seleccionados de acuerdo al protocolo de SOFIT. El resultado se categoriza en porcentaje de tiempo en comportamiento sedentario, AF moderada, AF vigorosa, y AF moderada a vigorosa. Se validó utilizando como patrón de oro la acelerometría en las mismas categorías. Se realizó diferencia de medias, regresión lineal y modelo de efectos fijos. La correlación entre SOFIT y acelerometría fue buena para AF moderada (rho=,958; p=0,000), AF vigorosa (rho=,937; p=0,000) y AF de moderada a vigorosa (rho=0,962; p=0,000). Al igual que utilizando un modelo de efectos fijos, AF moderada (β1=0,92; p=0,00), vigorosa (β1=0,94; p=0,00) y AF de moderada a vigorosa (β1=0,95; p=0,00), mostrando ausencia de diferencias significativas entre los dos métodos para la medición de los niveles de AF. El comportamiento sedentario correlacionó positivamente en Spearman (rho=,0965; p=0,000), El sistema SOFIT demostró ser válido para medir niveles de AF en clases de educación física, tras buena correlación y concordancia con acelerometría. SOFIT es un instrumento de fácil acceso y de bajo costo para la medición de la AF durante las clases de educación física en el contexto escolar y se recomienda su uso en futuros estudios.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las organizaciones y sus entornos son sistemas complejos. Tales sistemas son difíciles de comprender y predecir. Pese a ello, la predicción es una tarea fundamental para la gestión empresarial y para la toma de decisiones que implica siempre un riesgo. Los métodos clásicos de predicción (entre los cuales están: la regresión lineal, la Autoregresive Moving Average y el exponential smoothing) establecen supuestos como la linealidad, la estabilidad para ser matemática y computacionalmente tratables. Por diferentes medios, sin embargo, se han demostrado las limitaciones de tales métodos. Pues bien, en las últimas décadas nuevos métodos de predicción han surgido con el fin de abarcar la complejidad de los sistemas organizacionales y sus entornos, antes que evitarla. Entre ellos, los más promisorios son los métodos de predicción bio-inspirados (ej. redes neuronales, algoritmos genéticos /evolutivos y sistemas inmunes artificiales). Este artículo pretende establecer un estado situacional de las aplicaciones actuales y potenciales de los métodos bio-inspirados de predicción en la administración.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introducción: La implicación social dentro de la problemática ambiental, establece una relación causal entre hábitos e impacto ambiental; aspectos del comportamiento humano tales como la conveniencia, familiaridad, presión social y actitud, nos permiten realizar un acercamiento acerca de la decisión de reciclar o no en un hogar. Objetivo: identificar los factores ambientales asociados con el manejo de residuos domésticos entre los miembros de una comunidad residencial en la ciudad de Bogotá. Materiales y métodos: Se realizó un estudio transversal realizado a 200 personas de una comunidad residencial. La evaluación de la conducta pro-ambiental se llevó a cabo por medio de la utilización de la Escala del Comportamiento Pro-ambiental desarrollada por Corral-Verdugo unida a la escala de Reciclaje de Sidique. Para el tratamiento estadístico se empleó el análisis de regresión lineal múltiple. Resultados: La mayoría de los encuestados fueron hombres (55%), con una mediana de edad de 37,5 años. Más de la mitad tenía por lo menos formación en pregrado (53%), el 55,5% contaban con un empleo al momento de la entrevista, cerca del 50% de las personas refirieron tener casa propia y la mediana del tamaño de las mismas fue de 80 m2. De los aspectos sociodemográficos, el tipo de vivienda, sexo y edad, estuvieron relacionados con los factores ambientales pro reciclaje. Mientras que las conductas proambientales relacionadas fueron: altruismo, frugalidad, conducta ecológica general, indignación y aprecio por la naturaleza. Conclusiones: Las conductas proambientales Altruismo, Frugalidad, Conducta Ecológica, Indignación y Aprecio por lo natural, están relacionadas con la intención de reciclar. Para futuras investigaciones es necesario constatar la realización del comportamiento proambiental, para aseverar de manera irrebatible que las dimensiones analizadas pueden soportar una acción real y no un auto reporte de una conducta.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente trabajo se realizó con el objetivo de estudiar el efecto del destete a los 15, 30 y 45 días, sobre la ganancia media en conejos con alimento concentrado comercial tipo único, y ad-libitum, hasta los 75 días de vida, procedentes de hembras primiparas. Para la evaluación estadística se empleó un diseño completamente aleatorio (DCA) con cuatro repeticiones por periodos de destete. Cada unidad experimental o repetición correspondió a una camada, en las que se registraron loe pesos vivos cada 15 días y el número de crías vivas por camada. Esta última característica con el objetivo de corregir las ganancias a un tamaño de camada uniforme de existir regresión lineal significativa. Cada camada se alojó en una jaula de 0.49 m2. En el análisis de varianza (ANDEVA) dé la ganancia media por gazapo al cabo de 30 días, se observaron diferencias significativas entre periodos de destete resultando un promedio de 0,344 kg y 0.510 kg para destetes de 15 días y 30 días respectivamente. En el Análisis de varianza de la ganancia media por gazapo al cabo de 45, 60 y 75 días, se observaron diferencias no significativas al 10%. Resultado que se corroboró con el procedimiento de comparación de medias de Duncan. Las ganancias medias por gazapo obtenido en las camadas a los 75 días de vida resultó de 1.676 kg, 1. 939 kg y 1.846 kg para los destete de 15, 30 y 45 días respectivamente. Durante. El ensayo fue evidente el estrés post destete, acentuándose más en las camadas destetadas a los 15 días. Analizando el efecto de los períodos de destete sobre la ganancia media en conejos a los 45, 60 y 75 días de vida. Se determinó que dicho efecto no es significativo debido al rango de ganancia media mostrado por las variables en estudio y que estas no fueron afectadas por la covariable número de conejos por camada.