991 resultados para Embaràs múltiple


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto fin de carrera de herramienta de apoyo a la docencia en Sistemas Operativos quiere ayudar al alumno a entender el funcionamiento de un planificador a corto plazo. Lo hace mediante una representación gráfica de procesos que ocupan o el procesador o distintas unidades de entrada/salida mientras transcurre el tiempo. El tiempo está dividido en ciclos de reloj de un procesador, a lo que a continuación se referirá como unidades de tiempo. Los procesos están definidos por su nombre, la instante de entrada que entran al sistema, su prioridad y la secuencia de unidades de tiempo en el procesador y unidades de entrada/salida que necesitan para terminar su trabajo. El alumno puede configurar el sistema a su gusto en cuanto al número y comportamiento de las unidades de entrada/salida. Puede definir que una unidad solo permita acceso exclusivo a los procesos, es decir que solo un proceso puede ocuparla simultáneamente, o que permita el acceso múltiple a sus recursos. El alumno puede construir un planificador a corto plazo propio, integrarlo en el sistema y ver cómo se comporta. Se debe usar la interfaz Java proporcionada para su construcción. La aplicación muestra datos estadísticos como por ejemplo la eficiencia del sistema (el tiempo activo de la CPU dividido por el tiempo total de la simulación), tiempos de espera de los procesos, etc. Se calcula después de cada unidad de tiempo para que el alumno pueda ver el momento exacto donde la simulación tomó un giro inesperado. La aplicación está compuesta por un motor de simulación que contiene toda la lógica y un conjunto de clases que forman la interfaz gráfica que se presenta al usuario. Estos dos componentes pueden ser reemplazados siempre y cuando se mantenga la definición de sus conectores igual. La aplicación la he hecho de manejo muy simple e interfaz fácil de comprender para que el alumno pueda dedicar todo su tiempo a probar distintas configuraciones y situaciones y así entender mejor la asignatura. ABSTRACT. The project is called “Tool to Support Teaching of the Subject Operating Systems” and is an application that aims to help students understand on a deeper level the inner workings of how an operating system handles multiple processes in need of CPU time by the means of a short-term planning algorithm. It does so with a graphical representation of the processes that occupy the CPU and different input/output devices as time passes by. Time is divided in CPU cycles, from now on referred to as time units. The processes are defined by their name, the moment they enter the system, their priority and the sequence of time units they need to finish their job. The student can configure the system by changing the number and behavior of the input/output devices. He or she can define whether a device should only allow exclusive access, i.e. only one process can occupy it at any given time, or if it should allow multiple processes to access its resources. The student can build a planning algorithm of his or her own and easily integrate it into the system to see how it behaves. The provided Java interface and the programming language Java should be used to build it. The application shows statistical data, e.g. the efficiency of the system (active CPU time divided by total simulation time) and time spent by the processes waiting in queues. The data are calculated after passing each time unit in order for the student to see the exact moment where the simulation took an unexpected turn. The application is comprised of a simulation motor, which handles all the logic, and a set of classes, which is the graphical user interface. These two parts can be replaced individually if the definition of the connecting interfaces stays the same. I have made the application to be very easy to use and with an easy to understand user interface so the student can spend all of his or her time trying out different configurations and scenarios in order to understand the subject better.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los fundamentos de la Teoría de la Decisión Bayesiana proporcionan un marco coherente en el que se pueden resolver los problemas de toma de decisiones. La creciente disponibilidad de ordenadores potentes está llevando a tratar problemas cada vez más complejos con numerosas fuentes de incertidumbre multidimensionales; varios objetivos conflictivos; preferencias, metas y creencias cambiantes en el tiempo y distintos grupos afectados por las decisiones. Estos factores, a su vez, exigen mejores herramientas de representación de problemas; imponen fuertes restricciones cognitivas sobre los decisores y conllevan difíciles problemas computacionales. Esta tesis tratará estos tres aspectos. En el Capítulo 1, proporcionamos una revisión crítica de los principales métodos gráficos de representación y resolución de problemas, concluyendo con algunas recomendaciones fundamentales y generalizaciones. Nuestro segundo comentario nos lleva a estudiar tales métodos cuando sólo disponemos de información parcial sobre las preferencias y creencias del decisor. En el Capítulo 2, estudiamos este problema cuando empleamos diagramas de influencia (DI). Damos un algoritmo para calcular las soluciones no dominadas en un DI y analizamos varios conceptos de solución ad hoc. El último aspecto se estudia en los Capítulos 3 y 4. Motivado por una aplicación de gestión de embalses, introducimos un método heurístico para resolver problemas de decisión secuenciales. Como muestra resultados muy buenos, extendemos la idea a problemas secuenciales generales y cuantificamos su bondad. Exploramos después en varias direcciones la aplicación de métodos de simulación al Análisis de Decisiones. Introducimos primero métodos de Monte Cario para aproximar el conjunto no dominado en problemas continuos. Después, proporcionamos un método de Monte Cario basado en cadenas de Markov para problemas con información completa con estructura general: las decisiones y las variables aleatorias pueden ser continuas, y la función de utilidad puede ser arbitraria. Nuestro esquema es aplicable a muchos problemas modelizados como DI. Finalizamos con un capítulo de conclusiones y problemas abiertos.---ABSTRACT---The foundations of Bayesian Decisión Theory provide a coherent framework in which decisión making problems may be solved. With the advent of powerful computers and given the many challenging problems we face, we are gradually attempting to solve more and more complex decisión making problems with high and multidimensional uncertainty, múltiple objectives, influence of time over decisión tasks and influence over many groups. These complexity factors demand better representation tools for decisión making problems; place strong cognitive demands on the decison maker judgements; and lead to involved computational problems. This thesis will deal with these three topics. In recent years, many representation tools have been developed for decisión making problems. In Chapter 1, we provide a critical review of most of them and conclude with recommendations and generalisations. Given our second query, we could wonder how may we deal with those representation tools when there is only partial information. In Chapter 2, we find out how to deal with such a problem when it is structured as an influence diagram (ID). We give an algorithm to compute nondominated solutions in ID's and analyse several ad hoc solution concepts.- The last issue is studied in Chapters 3 and 4. In a reservoir management case study, we have introduced a heuristic method for solving sequential decisión making problems. Since it shows very good performance, we extend the idea to general problems and quantify its goodness. We explore then in several directions the application of simulation based methods to Decisión Analysis. We first introduce Monte Cario methods to approximate the nondominated set in continuous problems. Then, we provide a Monte Cario Markov Chain method for problems under total information with general structure: decisions and random variables may be continuous, and the utility function may be arbitrary. Our scheme is applicable to many problems modeled as IDs. We conclude with discussions and several open problems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción. La obesidad puede definirse como una enfermedad metabólica crónica de origen multifactorial, lo que provoca trastornos o problemas físicos y psicológicos a la persona, con patologías asociadas que limitan la esperanza de vida y deterioran la calidad de la misma, siendo determinante para sus áreas sociales y laborales. Este trastorno metabólico crónico se caracteriza por una acumulación excesiva de energía en el cuerpo en forma de grasa, lo que lleva a un aumento de peso con respecto al valor esperado por sexo, edad y altura. La gestión y el tratamiento de la obesidad tienen objetivos más amplios que la pérdida de peso e incluyen la reducción del riesgo y la mejora de la salud. Estos pueden ser alcanzados por la pérdida modesta de peso (es decir, 10.5% del peso corporal inicial), la mejora del contenido nutricional de la dieta y un modesto incremento en la actividad física y condición física. La dieta es uno de los métodos más populares para perder peso corporal. El ejercicio es otra alternativa para perder peso corporal. El aumento de ejercicio provoca un desequilibrio cuando se mantiene la ingesta calórica. También tiene ventajas, como la mejora del tono muscular, la capacidad cardiovascular, fuerza y flexibilidad, aumenta el metabolismo basal y mejora el sistema inmunológico. Objetivos. El objetivo de esta tesis es contribuir en un estudio de intervención para aclarar la evolución del peso corporal durante una intervención de dieta y ejercicio. Para ello, se evaluaron los efectos de la edad, sexo, índice de masa corporal inicial y el tipo de tratamiento en las tendencias de pérdida de peso. Otro objetivo de la tesis era crear un modelo de regresión lineal múltiple capaz de predecir la pérdida de peso corporal después del periodo de intervención. Y, por último, determinar el efecto sobre la composición corporal (peso corporal, índice de masa corporal, la masa grasa, y la masa libre de grasa) de las diferentes intervenciones basadas en ejercicios (fuerza, resistencia, resistencia combinada con fuerza, y las recomendaciones de actividad física (grupo control)) en combinación con dieta de adultos con sobrepeso y obesidad, después de la intervención, así como los cambios de la composición corporal 3 años más tarde. Diseño de la investigación. Los datos empleados en el análisis de esta tesis son parte del proyecto “Programas de Nutrición y Actividad Física para el tratamiento de la obesidad” (PRONAF). El proyecto PRONAF es un estudio clínico sobre programas de nutrición y actividad física para el sobrepeso y la obesidad, desarrollado en España durante varios años de intervención. Fue diseñado, en parte, para comparar diferentes tipos de intervención, con el objetivo de evaluar su impacto en las dinámicas de pérdida de peso, en personas con sobrepeso y obesidad. Como diseño experimental, el estudio se basó en una restricción calórica, a la que, en algunos casos, se le añadió un protocolo de entrenamiento (fuerza, resistencia, o combinado, en igualdad de volumen e intensidad). Las principales variables para la investigación que comprende esta tesis fueron: el peso corporal y la composición corporal (masa grasa y masa libre de grasa). Conclusiones. En esta tesis, para los programas de pérdida de peso en personas con sobrepeso y obesidad con un 25-30% de la restricción calórica, el peso corporal se redujo significativamente en ambos sexos, sin tener en cuenta la edad y el tipo de tratamiento seguido. Según los resultados del estudio, la pérdida de peso realizada por un individuo (hombre o mujer) durante los seis meses puede ser representada por cualquiera de las cinco funciones (lineal, potencial, exponencial, logarítmica y cuadrática) en ambos sexos, siendo la cuadrática la que tiende a representarlo mejor. Además, se puede concluir que la pérdida de peso corporal se ve afectada por el índice de masa corporal inicial y el sexo, siendo mayor para las personas obesas que para las de sobrepeso, que muestran diferencias entre sexos sólo en la condición de sobrepeso. Además, es posible calcular el peso corporal final de cualquier participante involucrado en una intervención utilizando la metodología del proyecto PRONAF sólo conociendo sus variables iniciales de composición corporal. Además, los cuatro tipos de tratamientos tuvieron resultados similares en cambios en la composición corporal al final del período de intervención, con la única excepción de la masa libre de grasa, siendo los grupos de entrenamiento los que la mantuvieron durante la restricción calórica. Por otro lado, sólo el grupo combinado logra mantener la reducción de la masa grasa (%) 3 años después del final de la intervención. ABSTRACT Introduction. Obesity can be defined as a chronic metabolic disease from a multifactorial origin, which leads to physical and psychological impacts to the person, with associated pathologies that limit the life expectancy and deteriorate the quality of it, being determinant for the social and labor areas of the person. This chronic metabolic disorder is characterized by an excessive accumulation of energy in the body as fat, leading to increased weight relative to the value expected by sex, age and height. The management and treatment of obesity have wider objectives than weight loss alone and include risk reduction and health improvement. These may be achieved by modest weight loss (i.e. 5–10% of initial body weight), improved nutritional content of the diet and modest increases in physical activity and fitness. Weight loss through diet is one of the most popular approaches to lose body weight. Exercise is another alternative to lose body weight. The increase of exercise causes an imbalance when the caloric intake is maintained. It also has advantages such as improved muscle tone, cardiovascular fitness, strength and flexibility, increases the basal metabolism and improves immune system. Objectives. The aim of this thesis is to contribute with an interventional study to clarify the evolution of the body weight during a diet and exercise intervention. For this, the effects of age, sex, initial body mass index and type of treatment on weight loss tendencies were evaluated. Another objective of the thesis was to create a multiple linear regression model able to predict the body weight loss after the intervention period. And, finally, to determine the effect upon body composition (body weight, body mass index, fat mass, and fat-free mass of different exercise-based interventions (strength, endurance, combined endurance and strength, and physical activity recommendations group (control group)) combined with diet in overweight and obese adults, after intervention as well as body composition changes 3 years later. Research Design. The data used in the analysis of this thesis are part of the project "Programs of Nutrition and Physical Activity for the treatment of obesity" (PRONAF). The PRONAF project is a clinical trial program about nutrition and physical activity for overweight and obesity, developed in Spain for several years of intervention. It was designed, in part, to compare different types of intervention, in order to assess their impact on the dynamics of weight loss in overweight and obese people. As experimental design, the study was based on caloric restriction, which, in some cases, added a training protocol (strength, endurance, or combined in equal volume and intensity). The main research variables comprising this thesis were: body weight and body composition outcomes (fat mass and fat-free mass). Conclusions. In this thesis, for weight loss programs in overweight and obese people with 25-30% of caloric restriction, the body weight was significantly decreased in both sexes, regardless the age and type of followed treatment. According to the results of the study, the weight loss performed by an individual (male or female) during six months can be represented by any of the five functions (linear, power law, exponential, logarithmic and quadratic) in both sexes, being the quadratic one which tends to represent it better. In addition, it can be concluded that the body weight loss is affected by the initial body mass index and sex condition, being greater for the obese people than for the overweight one, showing differences between sexes only in the overweight condition. Moreover, it is possible to calculate the final body weight of any participant engaged in an intervention using the PRONAF Project methodology only knowing their initial body composition variables. Furthermore, the four types of treatments had similar results on body composition changes at the end of the intervention period, with the only exception of fat-free mass, being the training groups the ones that maintained it during the caloric restriction. On the other hand, only the combined group achieved to maintain the fat mass (%) reduced 3 years after the end of the intervention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La infiltración de agua en el suelo y la recarga profunda del agua subterránea contenida en los acuíferos es un proceso lento en relación con otros fenómenos hidrológicos. La redacción de esta tesis ha pretendido contribuir al estudio de la influencia que el almacenamiento de la precipitación sólida en forma de manto de nieve y su eventual fusión puedan tener sobre dicho proceso en áreas de media montaña (1.000 – 2.000 m.) en las que con gran frecuencia se sitúan las cabeceras de los ríos peninsulares. Para ello se ha partido del análisis de las diferentes variables intervinientes durante un determinado periodo temporal y sobre un espacio geográfico concreto, por lo que su metodología es de naturaleza empírica. La extensión del periodo (2002/03 a 2010/11) ha venido condicionada por la disponibilidad de los valores de algunas de sus principales variables, como han sido el equivalente en agua de la nieve acumulada y los caudales procedentes de su fusión. Éstos se han obtenido como resultado de la aplicación del modelo ASTER, desarrollado en el programa de Evaluación de los Recursos Hídricos procedentes de la Innivación (ERHIN), calibrado – entre otros- con datos de precipitaciones, temperatura y caudales provenientes a su vez del Sistema Automático de Información Hidrológica (SAIH). Ambos programas fueron implantados por la Administración en las diferentes Confederaciones Hidrográficas y en determinados Organismos de cuenca actuales, en cuyo desarrollo participó el autor de esta tesis. En cuanto a la zona de estudio se ha procedido a su elección considerando las posibles áreas de media montaña en las que la presencia de la nieve fuera hidrológicamente significativa y estuvieran constituidas litológicamente por afloramientos permeables que no impidieran la infiltración en el terreno y la formación de acuíferos de cierta relevancia. El interés se centró discrecionalmente en la cuenca del Tajo, tanto por el carácter estratégico de la misma -como suministradora en la actualidad de excedentes a otras cuencas deficitarias- como por el valor representativo de sus condiciones climáticas y orográficas en relación con otras cuencas hidrográficas peninsulares. Para ello se partió de las cabeceras de ríos identificadas por el programa ERHIN por su interés nivológico para la implantación del modelo ASTER y de las Masas de Agua Subterráneas MASb (antes Unidades Hidrogeológicas UUHH) definidas en los planes hidrológicos. La intersección en el territorio de ambos criterios condujo, finalmente, a la zona del Alto Tajo, en la que se cumplen ambos requisitos. El tramo quedó concretado en el comprendido entre las cabeceras de los ríos Tajo y Guadiela y la cola de los embalses de Entrepeñas y Buendía respectivamente, puntos de cierre para la calibración llevada a cabo en la modelización ASTER. Gran parte de éste discurre, en su parte alta, sobre rocas carbonatadas (calizas y dolomías del Jurásico y Cretácico), relacionados con las MASb de Tajuña-Montes Universales, Molina de Aragón y Sigüenza-Maranchón. Los valores diarios de las reservas de agua en forma de nieve, evapotranspiración y caudales procedentes de la fusión se han obtenido a partir de los resultados del mencionado modelo, procediéndose al cálculo de la infiltración por balance hídrico durante el periodo de estudio considerado, teniendo en cuenta los valores de precipitación, evapotranspiración y aportaciones de caudales. Esto ha requerido el estudio previo de las condiciones hidrogeológicas de la zona seleccionada con objeto de conocer las posibles interconexiones subterráneas que pudieran alterar los saldos entre las variables intervinientes anteriormente citadas. Para ello se ha llevado a cabo la recopilación y análisis de la información hidrogeológica correspondiente a la documentación de los planes hidrológicos del Tajo (Plan Hidrológico de la cuenca del Tajo RD 1664/1998 y el actual Plan Hidrológico de la parte española de la Demarcación Hidrográfica del Tajo RD 270/2014) y de los estudios previos realizados por el organismo de cuenca y el Instituto Geológico y Minero de España (lGME) fundamentalmente. En relación con la MASb Tajuña-Montes Universales -cuya extensión supera la zona seleccionada- dichos estudios consideran su estructura geológica y distribución litológica, con intercalaciones impermeables que actúan como barreras, dividiendo a éstas en Subunidades e identificando las zonas de drenaje de sus respectivos acuíferos. También se ha considerado la documentación y estudios previos del Plan Hidrológico Nacional sobre las Unidades Hidrogeológicas compartidas entre ámbitos geográficos de diferentes planes hidrológicos. Se concluye que las divisorias hidrográficas de las cabeceras son sensiblemente coincidentes o abarcan las Subunidades Montes Universales meridionales, Priego, Cifuentes, Zaorejas, u Montes Universales septentrionales, que drenan hacia el Tajo/Guadiela (bien directamente, bien a través de afluentes como el Gallo, Ablanquejo, Cabrillas, Cuervo…), MASb Molina de Aragón, que drena al Tajo a través del río Gallo y MASb Sigüenza—Maranchón, que drena su parte correspondiente hacia el Tajo a través del Ablanquejo. Se descartan – salvo la pequeña salvedad del manantial de Cifuentes- las conexiones hidrogeológicas con otras MASb o Subunidades por lo que las cabeceras del Tajo y del Guadiela pueden considerarse como un Sistema independiente donde las precipitaciones no evaporadas escurren superficialmente o se infiltran y descargan hacia los embalses de Entrepeñas y Buendía. La cuantificación diaria y acumulada de los balances hídricos ha permitido calcular la evolución aproximada de las reservas de agua subterránea desde la fecha inicial. Originalmente los balances se realizaron de forma separada en las cabeceras del Tajo y del Guadiela, cuyos valores acumulados manifestaron una tendencia creciente en la primera y decreciente en la segunda. Dicha situación se equilibra cuando el balance se practica conjuntamente en ambas, apreciándose en la variación del volumen de agua subterránea una evolución acorde hidrológicamente con los ciclos de verano/invierno y periodos de sequía, manteniéndose sus valores medios a largo/medio plazo, poniendo en evidencia la existencia de interconexiones subterráneas entre ambas cuencas. El balance conjunto, agregando la cabecera del Tajuña (que también comparte los materiales permeables de la MASb Tajuña-Montes Universales) no reveló la existencia de nuevas interrelaciones hidrogeológicas que influyeran en los balances hídricos realizados Tajo/Guadiela, confirmando las conclusiones de los estudios hidrogeológicos anteriormente analizados. Se ha procedido a confrontar y validar los resultados obtenidos de la evolución de las reservas de agua subterránea mediante los siguientes procedimientos alternativos: - Cálculo de los parámetros de desagüe de la curva de agotamiento correspondiente al volumen de agua subterránea drenante hacia el Tajo/Guadiela. Éste se ha realizado a partir de las aportaciones mensuales entrantes en los embalses de Entrepeñas y Buendía durante los meses de junio, julio, agosto y septiembre, cuyos valores responden al perfil típico de descargas de un acuífero. A partir de éstos se ha determinado el volumen drenante correspondiente al primero de junio de cada año de la serie histórica considerada. - Determinación del caudal base por el método Wallingford y deducción de los volúmenes drenantes. Estimación de las recarga anuales - Cuantificación de la recarga anual por el método Sanz, Menéndez Pidal de Navascués y Távara. Se obtuvieron valores de recarga muy aproximados entre los calculados por los dos últimos procedimientos citados. Respecto a las reservas de agua subterránea almacenadas siguen una evolución semejante en todos los casos, lo que ha permitido considerar válidos los resultados conseguidos mediante balance hídrico. Confirmada su solidez, se han buscado correlaciones simples entre el volumen de las reservas subterráneas (como indicador estimativo del efecto de la infiltración) y los volúmenes procedentes de la fusión. La conclusión es que estos últimos no tienen un efecto determinante a escala anual sobre la infiltración,recarga y variación de los volúmenes de agua subterránea, frente al peso de otras variables (precipitación y evapotranspiración). No obstante se ha encontrado una buena correlación múltiple entre la recarga estimada y la precipitación eficaz (precipitación menos evapotranspiración) y fusión, que ha permitido cuantificar la contribución de esta última. Posteriormente se ha recurrido a la selección de los episodios más intensos de acumulación /fusión en las cabeceras del Tajo y Guadiela. Y se procedió a la comparación entre los resultados obtenidos por aplicación del modelo de simulación en los mismos periodos (normalmente de varios días de duración) con datos reales y con datos ficticios de temperatura que anularan o disminuyeran la presencia de nieve, apreciándose una gran sensibilidad del efecto de la temperatura sobre la evapotranspiración y estableciéndose nuevamente correlaciones lineales entre los volúmenes de fusión y el incremento de reservas subterráneas. Las mismas confirman el efecto “favorecedor” de la acumulación de agua en forma de nieve y su posterior licuación, sobre sobre la infiltración de agua en el suelo y almacenamiento subterráneo. Finalmente se establecieron varios escenarios climáticos (+1ºC; +3ºC; +1ºC y – 10% precipitación; y 3ºC – 10% precipitación) compatibles con las previsiones del IPCC para mediados y finales del presente siglo, determinándose mediante simulación ASTER los correspondientes valores de fusión. La correlación establecida a escala anual ha permitido evaluar el efecto de la disminución del volumen de fusión - en los diferentes escenarios – sobre la recarga, pronosticando un descenso de los caudales de estiaje y la desaparición del “efecto nieve” sobre la infiltración y recarga con un aumento de 3ºC de temperatura. Teniendo en cuenta las condiciones de representatividad de la zona elegida, resulta verosímil la extensión de las anteriores conclusiones a otras cabeceras fluviales enclavadas en áreas de media montaña situadas entre 1000 a 2000m y sus efectos aguas abajo.Water infiltration into the soil and groundwater recharge deep water in aquifers is slow relative to other hydrological phenomena. The wording of this thesis aims to contribute to the study of the influence that the storage of solid precipitation as snow cover and its eventual melting may have on this process in mid-mountain areas (1000 - 2,000 m) where very often the headwaters of the peninsular rivers are located. For this party analysis of the different variables involved has over a given time period and a particular geographical area, so that their methodology is empirical in nature. The extension of the period (2002/03 to 2010/11) has been conditioned by the availability of the values of some of its key variables, as were the water equivalent of the snow and flows from melting. These have been obtained as a result of the application of ASTER model, developed in the program Evaluation of Water Resources from the Innivation (ERHIN), calibrated - among others data of rainfall, temperature and flow from turn System Automatic Hydrological Information (SAIH). Both programs were implemented by the Administration in the different Water Boards and to undertakings for current basin, in which the author participated development of this thesis. As for the study area has proceeded at its option considering the possible areas of midmountain in the presence of snow outside hydrological meaningful and they were lithology consisting of permeable outcrops that did not prevent infiltration into the ground and forming aquifers of some significance. We were interested discretion in the Tagus basin, therefore the strategic nature of it, as currently supplying surplus to other basins deficit- as the representative value of its climate and terrain conditions in relation to other peninsular river basins . To do this we started from the headwaters identified by the ERHIN program for its implementation snow interest to the ASTER model and Ground Water Bodies MASb (before UUHH Hydrogeological Units) defined in hydrological plans. The intersection in the territory of both criteria led eventually to the Alto Tajo, in which both requirements are met. The section was finalized in the period between the headwaters of the Tagus and Guadiela rivers and reservoirs end Entrepeñas and Buendia respectively checking points for calibration performed in ASTER modeling. Much of it runs on carbonate rocks (limestones and dolomites of Jurassic and Cretaceous) related MASb of Tajuña -Montes Universal, Molina de Aragón and Sigüenza-Maranchón. The daily values of water reserves in the form of snow, evapotranspiration and flow from melting were obtained from the results of this model, proceeding to the calculation of infiltration water balance during the study period considered, taking into account values of precipitation, evapotranspiration and input flow. This has required the prior examination of the hydrogeological conditions of your required in order to know the possible underground interconnections that could alter the balance between the intervening variables aforementioned area. For this we have carried out the collection and analysis of hydrogeological information relevant documentation Tagus river management plans (Hydrological Plan Tajo Basin RD 1664/1998 and the current Hydrological Plan of the Spanish part of the River Basin Tagus RD 270/2014) and previous studies by the basin organization and the Geological Survey of Spain (IGME) mainly. Regarding the MASb Tajuña- Montes Universal - whose length exceeds the area selected - these studies consider its geological structure and lithology distribution with waterproof collations that act as barriers, dividing it into subunits and identifying areas draining their respective aquifers. It has also considered the documentation and previous studies of the National Hydrological Plan on shared among different geographical areas management plans Hydrogeological Units. We conclude that river dividing the headers are substantially coincident or covering Subunits southern Universal Montes, Priego Cifuentes, Zaorejas and northern Universal Mounts, which drain into the Tagus / Guadiela (either directly or through tributaries such as Gallo, Ablanquejo , whitecaps , Raven ...), MASb Molina de Aragón which drains through the Tajo del Gallo and MASb Sigüenza- Maranchón river that drains into the Tagus using the Ablanquejo . Discarded - except the small exception of spring Cifuentes -hydrogeological connections with other MASb or Subunits so the headwaters of the Tagus and Guadiela be considered as a separate system, where rainfall not evaporated runs on surface or infiltrates and eventually discharged into reservoirs Entrepeñas and Buendia. The daily and cumulative quantification of water balances allowed us to compute the approximate evolution of groundwater reserves from its initial date. Initially balances were performed separately in the headwaters of the Tagus and Guadiela, whose cumulative values showed an increasing trend in the first and decreasing in the second. This situation is balanced when the balance is practiced together in both , appreciating the change in volume of groundwater hydrological evolution commensurate with the cycles of summer / winter and drought periods , keeping their average long / medium term values and putting in shows the existence of underground interconnections between the two basins. The overall balance, adding header Tajuña (which also shares the permeable materials MASb Tajuña -Montes Universal ) did not reveal the existence of new hydrogeological interrelationships that influenced water balances made Tajo / Guadiela, confirming the findings of the hydrogeological studies previously analyzed. We proceeded to confront and validate the results of the evolution of groundwater reserves by the following alternative procedures: - Calculate the parameters drain depletion curve corresponding to the volume of groundwater draining into the Tajo / Guadiela. This has been made from monthly inflows in the reservoirs of Entrepeñas and Buendia during the months of June, July, August and September, whose values match the typical profile of an aquifer discharges. From these has been determined for the first of June each year of the time series considered drainage volume - Determination of base flow by Wallingford method and deduction of drainage volumes. Estimate of annual recharge - Quantification of the annual recharge by the method Sanz Menéndez Pidal of Navascués and Távara. Very approximate values recharge between calculated for the last two mentioned methods were obtained. Concerning groundwater reserves stored follow a similar pattern in all cases, allowing consider valid the results achieved through water balance. Confirmed its robustness, simple correlations were sought between the volume of groundwater reserves (as estimated indicator of the effect of infiltration) and volumes from the melting. The conclusion is that the latter do not have a decisive effect on the annual scale infiltration, recharge and variation in volumes of groundwater, against the weight of other variables (precipitation and evapotranspiration). However found a good multiple correlation between the estimated recharge and effective precipitation (precipitation minus evapotranspiration) and fusion, which allowed quantify the contribution of the latter. Subsequently it has resorted to the selection of the most intense episodes of accumulation / melting in the headwaters of the Tagus and Guadiela. And we proceeded to the comparison between the results obtained by application of the simulation model in the same periods (usually several days) with real data and fictitious temperature data to annul or decrease the presence of snow, appreciating a great sensitivity of the effect of temperature on evapotranspiration and establishing linear correlations between the volumes of melting and increased groundwater reserves again. They confirm the “flattering " effect of water accumulation as snow and subsequent liquefaction of the infiltration of water into the soil and underground storage. Finally various climate scenarios (+1ºC; +3ºC; +1ºC y – 10% precipitation; y 3ºC – 10% precipitation) were established consistent with IPCC projections for mid - to late - century, determined through simulation ASTER corresponding values of melting. The correlation established on an annual scale has allowed to evaluate the effect of decreasing the volume of melt - in different scenarios - on recharge, predicting a decline in low flows and the disappearance of "snow effect" on infiltration and recharge with an increase of 3°C temperature. Given the conditions of representativeness of the chosen area, plausible extension of the above findings to other landlocked headwaters in mid-mountain areas located between 1000 to 2000m and its downstream effects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de esta tesis fue estudiar el rendimiento ofensivo de los equipos de balonmano de élite cuando se considera el balonmano como un sistema dinámico complejo no lineal. La perspectiva de análisis dinámica dependiente del tiempo fue adoptada para evaluar el rendimiento de los equipos durante el partido. La muestra general comprendió los 240 partidos jugados en la temporada 2011-2012 de la liga profesional masculina de balonmano de España (Liga ASOBAL). En el análisis posterior solo se consideraron los partidos ajustados (diferencia final de goles ≤ 5; n = 142). El estado del marcador, la localización del partido, el nivel de los oponentes y el periodo de juego fueron incorporados al análisis como variables situacionales. Tres estudios compusieron el núcleo de la tesis. En el primer estudio, analizamos la coordinación entre las series temporales que representan el proceso goleador a lo largo del partido de cada uno de los dos equipos que se enfrentan. Autocorrelaciones, correlaciones cruzadas, doble media móvil y transformada de Hilbert fueron usadas para el análisis. El proceso goleador de los equipos presentó una alta consistencia a lo largo de todos los partidos, así como fuertes modos de coordinación en fase en todos los contextos de juego. Las únicas diferencias se encontraron en relación al periodo de juego. La coordinación en los procesos goleadores de los equipos fue significativamente menor en el 1er y 2º periodo (0–10 min y 10–20 min), mostrando una clara coordinación creciente a medida que el partido avanzaba. Esto sugiere que son los 20 primeros minutos aquellos que rompen los partidos. En el segundo estudio, analizamos los efectos temporales (efecto inmediato, a corto y a medio plazo) de los tiempos muertos en el rendimiento goleador de los equipos. Modelos de regresión lineal múltiple fueron empleados para el análisis. Los resultados mostraron incrementos de 0.59, 1.40 y 1.85 goles para los periodos que comprenden la primera, tercera y quinta posesión de los equipos que pidieron el tiempo muerto. Inversamente, se encontraron efectos significativamente negativos para los equipos rivales, con decrementos de 0.50, 1.43 y 2.05 goles en los mismos periodos respectivamente. La influencia de las variables situacionales solo se registró en ciertos periodos de juego. Finalmente, en el tercer estudio, analizamos los efectos temporales de las exclusiones de los jugadores sobre el rendimiento goleador de los equipos, tanto para los equipos que sufren la exclusión (inferioridad numérica) como para los rivales (superioridad numérica). Se emplearon modelos de regresión lineal múltiple para el análisis. Los resultados mostraron efectos negativos significativos en el número de goles marcados por los equipos con un jugador menos, con decrementos de 0.25, 0.40, 0.61, 0.62 y 0.57 goles para los periodos que comprenden el primer, segundo, tercer, cuarto y quinto minutos previos y posteriores a la exclusión. Para los rivales, los resultados mostraron efectos positivos significativos, con incrementos de la misma magnitud en los mismos periodos. Esta tendencia no se vio afectada por el estado del marcador, localización del partido, nivel de los oponentes o periodo de juego. Los incrementos goleadores fueron menores de lo que se podría esperar de una superioridad numérica de 2 minutos. Diferentes teorías psicológicas como la paralización ante situaciones de presión donde se espera un gran rendimiento pueden ayudar a explicar este hecho. Los últimos capítulos de la tesis enumeran las conclusiones principales y presentan diferentes aplicaciones prácticas que surgen de los tres estudios. Por último, se presentan las limitaciones y futuras líneas de investigación. ABSTRACT The purpose of this thesis was to investigate the offensive performance of elite handball teams when considering handball as a complex non-linear dynamical system. The time-dependent dynamic approach was adopted to assess teams’ performance during the game. The overall sample comprised the 240 games played in the season 2011-2012 of men’s Spanish Professional Handball League (ASOBAL League). In the subsequent analyses, only close games (final goal-difference ≤ 5; n = 142) were considered. Match status, game location, quality of opposition, and game period situational variables were incorporated into the analysis. Three studies composed the core of the thesis. In the first study, we analyzed the game-scoring coordination between the time series representing the scoring processes of the two opposing teams throughout the game. Autocorrelation, cross-correlation, double moving average, and Hilbert transform were used for analysis. The scoring processes of the teams presented a high consistency across all the games as well as strong in-phase modes of coordination in all the game contexts. The only differences were found when controlling for the game period. The coordination in the scoring processes of the teams was significantly lower for the 1st and 2nd period (0–10 min and 10–20 min), showing a clear increasing coordination behavior as the game progressed. This suggests that the first 20 minutes are those that break the game-scoring. In the second study, we analyzed the temporal effects (immediate effect, short-term effect, and medium-term effect) of team timeouts on teams’ scoring performance. Multiple linear regression models were used for the analysis. The results showed increments of 0.59, 1.40 and 1.85 goals for the periods within the first, third and fifth timeout ball possessions for the teams that requested the timeout. Conversely, significant negative effects on goals scored were found for the opponent teams, with decrements of 0.59, 1.43 and 2.04 goals for the same periods, respectively. The influence of situational variables on the scoring performance was only registered in certain game periods. Finally, in the third study, we analyzed the players’ exclusions temporal effects on teams’ scoring performance, for the teams that suffer the exclusion (numerical inferiority) and for the opponents (numerical superiority). Multiple linear regression models were used for the analysis. The results showed significant negative effects on the number of goals scored for the teams with one less player, with decrements of 0.25, 0.40, 0.61, 0.62, and 0.57 goals for the periods within the previous and post one, two, three, four and five minutes of play. For the opponent teams, the results showed positive effects, with increments of the same magnitude in the same game periods. This trend was not affected by match status, game location, quality of opposition, or game period. The scoring increments were smaller than might be expected from a 2-minute numerical playing superiority. Psychological theories such as choking under pressure situations where good performance is expected could contribute to explain this finding. The final chapters of the thesis enumerate the main conclusions and underline the main practical applications that arise from the three studies. Lastly, limitations and future research directions are described.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El MC en baloncesto es aquel fenómeno relacionado con el juego que presenta unas características particulares determinadas por la idiosincrasia de un equipo y puede afectar a los protagonistas y por ende al devenir del juego. En la presente Tesis se ha estudiado la incidencia del MC en Liga A.C.B. de baloncesto y para su desarrollo en profundidad se ha planteado dos investigaciones una cuantitativa y otra cualitativa cuya metodología se detalla a continuación: La investigación cuantitativa se ha basado en la técnica de estudio del “Performance analysis”, para ello se han estudiado cuatro temporadas de la Liga A.C.B. (del 2007/08 al 2010/11), tal y como refleja en la bibliografía consultada se han tomado como momentos críticos del juego a los últimos cinco minutos de partidos donde la diferencia de puntos fue de seis puntos y todos los Tiempos Extras disputados, de tal manera que se han estudiado 197 momentos críticos. La contextualización del estudio se ha hecho en función de la variables situacionales “game location” (local o visitante), “team quality” (mejores o peores clasificados) y “competition” (fases de LR y Playoff). Para la interpretación de los resultados se han realizado los siguientes análisis descriptivos: 1) Análisis Discriminante, 2) Regresión Lineal Múltiple; y 3) Análisis del Modelo Lineal General Multivariante. La investigación cualitativa se ha basado en la técnica de investigación de la entrevista semiestructurada. Se entrevistaron a 12 entrenadores que militaban en la Liga A.C.B. durante la temporada 2011/12, cuyo objetivo ha sido conocer el punto de vista que tiene el entrenador sobre el concepto del MC y que de esta forma pudiera dar un enfoque más práctico basado en su conocimiento y experiencia acerca de cómo actuar ante el MC en el baloncesto. Los resultados de ambas investigaciones coinciden en señalar la importancia del MC sobre el resultado final del juego. De igual forma, el concepto en sí entraña una gran complejidad por lo que se considera fundamental la visión científica de la observación del juego y la percepción subjetiva que presenta el entrenador ante el fenómeno, para la cual los aspectos psicológicos de sus protagonistas (jugadores y entrenadores) son determinantes. ABSTRACT The Critical Moment (CM) in basketball is a related phenomenon with the game that has particular features determined by the idiosyncrasies of a team and can affect the players and therefore the future of the game. In this Thesis we have studied the impact of CM in the A.C.B. League and from a profound development two investigations have been raised, quantitative and qualitative whose methodology is as follows: The quantitative research is based on the technique of study "Performance analysis", for this we have studied four seasons in the A.C.B. League (2007/08 to 2010/11), and as reflected in the literature the Critical Moments of the games were taken from the last five minutes of games where the point spread was six points and all overtimes disputed, such that 197 critical moments have been studied. The contextualization of the study has been based on the situational variables "game location" (home or away), "team quality" (better or lower classified) and "competition" (LR and Playoff phases). For the interpretation of the results the following descriptive analyzes were performed: 1) Discriminant Analysis, 2) Multiple Linear Regression Analysis; and 3) Analysis of Multivariate General Linear Model. Qualitative research is based on the technique of investigation of a semi-structured interview. 12 coaches who belonged to the A.C.B. League were interviewed in seasons 2011/12, which aimed to determine the point of view that the coach has on the CM concept and thus could give a more practical approach based on their knowledge and experience about how to deal with the CM in basketball. The results of both studies agree on the importance of the CM on the final outcome of the game. Similarly, the concept itself is highly complex so the scientific view of the observation of the game is considered essential as well as the subjective perception the coach presents before the phenomenon, for which the psychological aspects of their characters (players and coaches) are crucial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La predicción del valor de las acciones en la bolsa de valores ha sido un tema importante en el campo de inversiones, que por varios años ha atraído tanto a académicos como a inversionistas. Esto supone que la información disponible en el pasado de la compañía que cotiza en bolsa tiene alguna implicación en el futuro del valor de la misma. Este trabajo está enfocado en ayudar a un persona u organismo que decida invertir en la bolsa de valores a través de gestión de compra o venta de acciones de una compañía a tomar decisiones respecto al tiempo de comprar o vender basado en el conocimiento obtenido de los valores históricos de las acciones de una compañía en la bolsa de valores. Esta decisión será inferida a partir de un modelo de regresión múltiple que es una de las técnicas de datamining. Para llevar conseguir esto se emplea una metodología conocida como CRISP-DM aplicada a los datos históricos de la compañía con mayor valor actual del NASDAQ.---ABSTRACT---The prediction of the value of shares in the stock market has been a major issue in the field of investments, which for several years has attracted both academics and investors. This means that the information available in the company last traded have any involvement in the future of the value of it. This work is focused on helping an investor decides to invest in the stock market through management buy or sell shares of a company to make decisions with respect to time to buy or sell based on the knowledge gained from the historic values of the shares of a company in the stock market. This decision will be inferred from a multiple regression model which is one of the techniques of data mining. To get this out a methodology known as CRISP-DM applied to historical data of the company with the highest current value of NASDAQ is used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo principal el desarrollo de métodos de identificación del daño que sean robustos y fiables, enfocados a sistemas estructurales experimentales, fundamentalmente a las estructuras de hormigón armado reforzadas externamente con bandas fibras de polímeros reforzados (FRP). El modo de fallo de este tipo de sistema estructural es crítico, pues generalmente es debido a un despegue repentino y frágil de la banda del refuerzo FRP originado en grietas intermedias causadas por la flexión. La detección de este despegue en su fase inicial es fundamental para prevenir fallos futuros, que pueden ser catastróficos. Inicialmente, se lleva a cabo una revisión del método de la Impedancia Electro-Mecánica (EMI), de cara a exponer sus capacidades para la detección de daño. Una vez la tecnología apropiada es seleccionada, lo que incluye un analizador de impedancias así como novedosos sensores PZT para monitorización inteligente, se ha diseñado un procedimiento automático basado en los registros de impedancias de distintas estructuras de laboratorio. Basándonos en el hecho de que las mediciones de impedancias son posibles gracias a una colocación adecuada de una red de sensores PZT, la estimación de la presencia de daño se realiza analizando los resultados de distintos indicadores de daño obtenidos de la literatura. Para que este proceso sea automático y que no sean necesarios conocimientos previos sobre el método EMI para realizar un experimento, se ha diseñado e implementado un Interfaz Gráfico de Usuario, transformando la medición de impedancias en un proceso fácil e intuitivo. Se evalúa entonces el daño a través de los correspondientes índices de daño, intentando estimar no sólo su severidad, sino también su localización aproximada. El desarrollo de estos experimentos en cualquier estructura genera grandes cantidades de datos que han de ser procesados, y algunas veces los índices de daño no son suficientes para una evaluación completa de la integridad de una estructura. En la mayoría de los casos se pueden encontrar patrones de daño en los datos, pero no se tiene información a priori del estado de la estructura. En este punto, se ha hecho una importante investigación en técnicas de reconocimiento de patrones particularmente en aprendizaje no supervisado, encontrando aplicaciones interesantes en el campo de la medicina. De ahí surge una idea creativa e innovadora: detectar y seguir la evolución del daño en distintas estructuras como si se tratase de un cáncer propagándose por el cuerpo humano. En ese sentido, las lecturas de impedancias se emplean como información intrínseca de la salud de la propia estructura, de forma que se pueden aplicar las mismas técnicas que las empleadas en la investigación del cáncer. En este caso, se ha aplicado un algoritmo de clasificación jerárquica dado que ilustra además la clasificación de los datos de forma gráfica, incluyendo información cualitativa y cuantitativa sobre el daño. Se ha investigado la efectividad de este procedimiento a través de tres estructuras de laboratorio, como son una viga de aluminio, una unión atornillada de aluminio y un bloque de hormigón reforzado con FRP. La primera ayuda a mostrar la efectividad del método en sencillos escenarios de daño simple y múltiple, de forma que las conclusiones extraídas se aplican sobre los otros dos, diseñados para simular condiciones de despegue en distintas estructuras. Demostrada la efectividad del método de clasificación jerárquica de lecturas de impedancias, se aplica el procedimiento sobre las estructuras de hormigón armado reforzadas con bandas de FRP objeto de esta tesis, detectando y clasificando cada estado de daño. Finalmente, y como alternativa al anterior procedimiento, se propone un método para la monitorización continua de la interfase FRP-Hormigón, a través de una red de sensores FBG permanentemente instalados en dicha interfase. De esta forma, se obtienen medidas de deformación de la interfase en condiciones de carga continua, para ser implementadas en un modelo de optimización multiobjetivo, cuya solución se haya por medio de una expansión multiobjetivo del método Particle Swarm Optimization (PSO). La fiabilidad de este último método de detección se investiga a través de sendos ejemplos tanto numéricos como experimentales. ABSTRACT This thesis aims to develop robust and reliable damage identification methods focused on experimental structural systems, in particular Reinforced Concrete (RC) structures externally strengthened with Fiber Reinforced Polymers (FRP) strips. The failure mode of this type of structural system is critical, since it is usually due to sudden and brittle debonding of the FRP reinforcement originating from intermediate flexural cracks. Detection of the debonding in its initial stage is essential thus to prevent future failure, which might be catastrophic. Initially, a revision of the Electro-Mechanical Impedance (EMI) method is carried out, in order to expose its capabilities for local damage detection. Once the appropriate technology is selected, which includes impedance analyzer as well as novel PZT sensors for smart monitoring, an automated procedure has been design based on the impedance signatures of several lab-scale structures. On the basis that capturing impedance measurements is possible thanks to an adequately deployed PZT sensor network, the estimation of damage presence is done by analyzing the results of different damage indices obtained from the literature. In order to make this process automatic so that it is not necessary a priori knowledge of the EMI method to carry out an experimental test, a Graphical User Interface has been designed, turning the impedance measurements into an easy and intuitive procedure. Damage is then assessed through the analysis of the corresponding damage indices, trying to estimate not only the damage severity, but also its approximate location. The development of these tests on any kind of structure generates large amounts of data to be processed, and sometimes the information provided by damage indices is not enough to achieve a complete analysis of the structural health condition. In most of the cases, some damage patterns can be found in the data, but none a priori knowledge of the health condition is given for any structure. At this point, an important research on pattern recognition techniques has been carried out, particularly on unsupervised learning techniques, finding interesting applications in the medicine field. From this investigation, a creative and innovative idea arose: to detect and track the evolution of damage in different structures, as if it were a cancer propagating through a human body. In that sense, the impedance signatures are used to give intrinsic information of the health condition of the structure, so that the same clustering algorithms applied in the cancer research can be applied to the problem addressed in this dissertation. Hierarchical clustering is then applied since it also provides a graphical display of the clustered data, including quantitative and qualitative information about damage. The performance of this approach is firstly investigated using three lab-scale structures, such as a simple aluminium beam, a bolt-jointed aluminium beam and an FRP-strengthened concrete specimen. The first one shows the performance of the method on simple single and multiple damage scenarios, so that the first conclusions can be extracted and applied to the other two experimental tests, which are designed to simulate a debonding condition on different structures. Once the performance of the impedance-based hierarchical clustering method is proven to be successful, it is then applied to the structural system studied in this dissertation, the RC structures externally strengthened with FRP strips, where the debonding failure in the interface between the FRP and the concrete is successfully detected and classified, proving thus the feasibility of this method. Finally, as an alternative to the previous approach, a continuous monitoring procedure of the FRP-Concrete interface is proposed, based on an FBGsensors Network permanently deployed within that interface. In this way, strain measurements can be obtained under controlled loading conditions, and then they are used in order to implement a multi-objective model updating method solved by a multi-objective expansion of the Particle Swarm Optimization (PSO) method. The feasibility of this last proposal is investigated and successfully proven on both numerical and experimental RC beams strengthened with FRP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

¿Suministrarán las fuentes de energía renovables toda la energía que el mundo necesita algún día? Algunos argumentan que sí, mientras que otros dicen que no. Sin embargo, en algunas regiones del mundo, la producción de electricidad a través de fuentes de energía renovables ya está en una etapa prometedora de desarrollo en la que su costo de generación de electricidad compite con fuentes de electricidad convencionales, como por ejemplo la paridad de red. Este logro ha sido respaldado por el aumento de la eficiencia de la tecnología, la reducción de los costos de producción y, sobre todo, los años de intervenciones políticas de apoyo financiero. La difusión de los sistemas solares fotovoltaicos (PV) en Alemania es un ejemplo relevante. Alemania no sólo es el país líder en términos de capacidad instalada de sistemas fotovoltaicos (PV) en todo el mundo, sino también uno de los países pioneros donde la paridad de red se ha logrado recientemente. No obstante, podría haber una nube en el horizonte. La tasa de difusión ha comenzado a declinar en muchas regiones. Además, las empresas solares locales – que se sabe son importantes impulsores de la difusión – han comenzado a enfrentar dificultades para manejar sus negocios. Estos acontecimientos plantean algunas preguntas importantes: ¿Es ésta una disminución temporal en la difusión? ¿Los adoptantes continuarán instalando sistemas fotovoltaicos? ¿Qué pasa con los modelos de negocio de las empresas solares locales? Con base en el caso de los sistemas fotovoltaicos en Alemania a través de un análisis multinivel y dos revisiones literarias complementarias, esta tesis doctoral extiende el debate proporcionando riqueza múltiple de datos empíricos en un conocimiento de contexto limitado. El primer análisis se basa en la perspectiva del adoptante, que explora el nivel "micro" y el proceso social que subyace a la adopción de los sistemas fotovoltaicos. El segundo análisis es una perspectiva a nivel de empresa, que explora los modelos de negocio de las empresas y sus roles impulsores en la difusión de los sistemas fotovoltaicos. El tercero análisis es una perspectiva regional, la cual explora el nivel "meso", el proceso social que subyace a la adopción de sistemas fotovoltaicos y sus técnicas de modelado. Los resultados incluyen implicaciones tanto para académicos como políticos, no sólo sobre las innovaciones en energía renovable relativas a la paridad de red, sino también, de manera inductiva, sobre las innovaciones ambientales impulsadas por las políticas que logren la competitividad de costes. ABSTRACT Will renewable energy sources supply all of the world energy needs one day? Some argue yes, while others say no. However, in some regions of the world, the electricity production through renewable energy sources is already at a promising stage of development at which their electricity generation costs compete with conventional electricity sources’, i.e., grid parity. This achievement has been underpinned by the increase of technology efficiency, reduction of production costs and, above all, years of policy interventions of providing financial support. The diffusion of solar photovoltaic (PV) systems in Germany is an important frontrunner case in point. Germany is not only the top country in terms of installed PV systems’ capacity worldwide but also one of the pioneer countries where the grid parity has recently been achieved. However, there might be a cloud on the horizon. The diffusion rate has started to decline in many regions. In addition, local solar firms – which are known to be important drivers of diffusion – have started to face difficulties to run their businesses. These developments raise some important questions: Is this a temporary decline on diffusion? Will adopters continue to install PV systems? What about the business models of the local solar firms? Based on the case of PV systems in Germany through a multi-level analysis and two complementary literature reviews, this PhD Dissertation extends the debate by providing multiple wealth of empirical details in a context-limited knowledge. The first analysis is based on the adopter perspective, which explores the “micro” level and the social process underlying the adoption of PV systems. The second one is a firm-level perspective, which explores the business models of firms and their driving roles in diffusion of PV systems. The third one is a regional perspective, which explores the “meso” level, i.e., the social process underlying the adoption of PV systems and its modeling techniques. The results include implications for both scholars and policymakers, not only about renewable energy innovations at grid parity, but also in an inductive manner, about policy-driven environmental innovations that achieve the cost competiveness.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este trabajo es proporcionar una solución en tiempo real basada en visión estéreo o monocular precisa y robusta para que un vehículo aéreo no tripulado (UAV) sea autónomo en varios tipos de aplicaciones UAV, especialmente en entornos abarrotados sin señal GPS. Este trabajo principalmente consiste en tres temas de investigación de UAV basados en técnicas de visión por computador: (I) visual tracking, proporciona soluciones efectivas para localizar visualmente objetos de interés estáticos o en movimiento durante el tiempo que dura el vuelo del UAV mediante una aproximación adaptativa online y una estrategia de múltiple resolución, de este modo superamos los problemas generados por las diferentes situaciones desafiantes, tales como cambios significativos de aspecto, iluminación del entorno variante, fondo del tracking embarullado, oclusión parcial o total de objetos, variaciones rápidas de posición y vibraciones mecánicas a bordo. La solución ha sido utilizada en aterrizajes autónomos, inspección de plataformas mar adentro o tracking de aviones en pleno vuelo para su detección y evasión; (II) odometría visual: proporciona una solución eficiente al UAV para estimar la posición con 6 grados de libertad (6D) usando únicamente la entrada de una cámara estéreo a bordo del UAV. Un método Semi-Global Blocking Matching (SGBM) eficiente basado en una estrategia grueso-a-fino ha sido implementada para una rápida y profunda estimación del plano. Además, la solución toma provecho eficazmente de la información 2D y 3D para estimar la posición 6D, resolviendo de esta manera la limitación de un punto de referencia fijo en la cámara estéreo. Una robusta aproximación volumétrica de mapping basada en el framework Octomap ha sido utilizada para reconstruir entornos cerrados y al aire libre bastante abarrotados en 3D con memoria y errores correlacionados espacialmente o temporalmente; (III) visual control, ofrece soluciones de control prácticas para la navegación de un UAV usando Fuzzy Logic Controller (FLC) con la estimación visual. Y el framework de Cross-Entropy Optimization (CEO) ha sido usado para optimizar el factor de escala y la función de pertenencia en FLC. Todas las soluciones basadas en visión en este trabajo han sido probadas en test reales. Y los conjuntos de datos de imágenes reales grabados en estos test o disponibles para la comunidad pública han sido utilizados para evaluar el rendimiento de estas soluciones basadas en visión con ground truth. Además, las soluciones de visión presentadas han sido comparadas con algoritmos de visión del estado del arte. Los test reales y los resultados de evaluación muestran que las soluciones basadas en visión proporcionadas han obtenido rendimientos en tiempo real precisos y robustos, o han alcanzado un mejor rendimiento que aquellos algoritmos del estado del arte. La estimación basada en visión ha ganado un rol muy importante en controlar un UAV típico para alcanzar autonomía en aplicaciones UAV. ABSTRACT The main objective of this dissertation is providing real-time accurate robust monocular or stereo vision-based solution for Unmanned Aerial Vehicle (UAV) to achieve the autonomy in various types of UAV applications, especially in GPS-denied dynamic cluttered environments. This dissertation mainly consists of three UAV research topics based on computer vision technique: (I) visual tracking, it supplys effective solutions to visually locate interesting static or moving object over time during UAV flight with on-line adaptivity approach and multiple-resolution strategy, thereby overcoming the problems generated by the different challenging situations, such as significant appearance change, variant surrounding illumination, cluttered tracking background, partial or full object occlusion, rapid pose variation and onboard mechanical vibration. The solutions have been utilized in autonomous landing, offshore floating platform inspection and midair aircraft tracking for sense-and-avoid; (II) visual odometry: it provides the efficient solution for UAV to estimate the 6 Degree-of-freedom (6D) pose using only the input of stereo camera onboard UAV. An efficient Semi-Global Blocking Matching (SGBM) method based on a coarse-to-fine strategy has been implemented for fast depth map estimation. In addition, the solution effectively takes advantage of both 2D and 3D information to estimate the 6D pose, thereby solving the limitation of a fixed small baseline in the stereo camera. A robust volumetric occupancy mapping approach based on the Octomap framework has been utilized to reconstruct indoor and outdoor large-scale cluttered environments in 3D with less temporally or spatially correlated measurement errors and memory; (III) visual control, it offers practical control solutions to navigate UAV using Fuzzy Logic Controller (FLC) with the visual estimation. And the Cross-Entropy Optimization (CEO) framework has been used to optimize the scaling factor and the membership function in FLC. All the vision-based solutions in this dissertation have been tested in real tests. And the real image datasets recorded from these tests or available from public community have been utilized to evaluate the performance of these vision-based solutions with ground truth. Additionally, the presented vision solutions have compared with the state-of-art visual algorithms. Real tests and evaluation results show that the provided vision-based solutions have obtained real-time accurate robust performances, or gained better performance than those state-of-art visual algorithms. The vision-based estimation has played a critically important role for controlling a typical UAV to achieve autonomy in the UAV application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Cuba, las arvenses que afectan al cultivo de la caña de azúcar son una de las causas fundamentales de los bajos rendimientos agrícolas y su control constituye unas de las principales partidas de gastos. En general, se aplican los herbicidas, así como otros métodos de control, sin tener en cuenta el tipo de suelo y las características de estas plantas. Sobre el manejo de arvenses no existen trabajos de investigación que aborden aspectos de eficiencia energética de las producciones y daños al ambiente. Por lo antes señalado, el objetivo de esta investigación fue evaluar diversas tecnologías de manejo de arvenses en el cultivo de la caña de azúcar (Saccharum spp. híbrido), en cepas de primavera y retoño, en tres tipos de suelos, con el propósito de obtener producciones sustentables. El área de estudio se localizó en los campos de la Empresa Azucarera del municipio “Majibacoa”, provincia de Las Tunas (oriente de Cuba), que posee condiciones edafoclimáticas que abundan a lo largo del país. Los tres tipos de suelos más representativos son Fersialítico Pardo Rojizo ócrico, Pardo Mullido y Vertisol Crómico gléyco. En dicha área se han identificado 31 especies de arvenses, 16 de la clase Liliopsida y 15 de la Magnoliopsida. En un primer grupo de experimentos, se desarrollaron nueve ensayos de campo para evaluar la efectividad de herbicidas y mezclas de estos en el manejo de arvenses en el cultivo de la caña de azúcar, tanto en cepas de primavera como de retoño, en los tres tipos de suelos. Se establecieron parcelas de 80 m2 distribuidas en bloques al azar con cuatro réplicas. La efectividad se evaluó por medio del porcentaje de cobertura por arvenses y la fitotoxicidad provocada a las plantas de caña, teniendo en cuenta el coste asociado a cada tratamiento. En aplicaciones preemergentes en caña planta de primavera, el herbicida más eficiente fue el Isoxaflutole con dosis de 0,15; 0,20 y 0,25 kg.ha-1 de producto comercial (pc) en los suelos Fersialítico, Pardo y Vertisol respectivamente. En aplicaciones postemergentes tempranas la mezcla más eficiente fue la de Isoxaflutole + Ametrina +2,4-D con las dosis de Isoxaflutole citadas anteriormente. En aplicaciones preemergentes en cepa de retoño, el herbicida más eficiente fue el Isoxaflutole a dosis de 0,20 kg.ha-1 pc para el suelo Fersialítico y a 0,25 kg.ha-1 pc para los suelos Pardo y Vertisol. En un segundo grupo, se realizaron seis ensayos de campo distribuidos en dos fases. En la primera fase, se desarrollaron tres experimentos, uno por cada tipo de suelo, para evaluar la eficiencia de nueve tecnologías de manejo de arvenses (químicas y físicas combinadas) en cepa de primavera de caña de azúcar. En la siguiente fase, los tres ensayos restantes (uno por tipo de suelo) evaluaron tecnologías de manejo de arvenses durante dos ciclos de producción de caña de azúcar (etapa de primavera y retoño). En la etapa de primavera se aplicó la tecnología más eficiente de los tres experimentos anteriores y durante la etapa de retoño se evaluaron otras nueve tecnologías propias de este tipo de cepa. En estos experimentos los diferentes tratamientos se aplicaron en franjas distribuidas al azar con cuatro réplicas. En las tecnologías evaluadas se emplearon los herbicidas y mezclas que resultaron más eficientes en el primer grupo de experimentos. En cada caso, se evaluaron la eficiencia energética de la producción de azúcar y otros derivados, la resistencia a la penetración de los suelos, la carga contaminante hacia la atmósfera producto de la combustión del diésel y los beneficios al aplicar las diferentes tecnologías. En la primera fase (cepa de primavera), la tecnología con mejor resultado fue la aplicación preemergente de Isoxaflutole inmediatamente después de la plantación, seguida de descepe químico con Glufosinato de amonio, más labor con grada múltiple aproximadamente a los 80 días de la plantación y aplicación pre-cierre con Glufosinato de amonio. En la segunda fase (dos ciclos del cultivo), el mejor resultado se obtuvo cuando en la etapa de retoño se realizó una aplicación preemergente de Isoxaflutole, descepe químico con Glufosinato de amonio y aplicación pre-cierre con este mismo herbicida. En los tres tipos de suelos durante los dos ciclos, la eficiencia energética tuvo valores de 7,2 - 7,5, la resistencia a la penetración 1,2 - 1,5 MPa, la carga contaminante hacia la atmósfera fue de 63,3 - 64,9 kg.t-1 de caña cosechada y beneficios de 8.324 - 8.455 pesos cubanos por hectárea. Este estudio demuestra que un control eficiente de las arvenses debe tener en cuenta necesariamente el tipo de suelo. Así, en los Vertisoles, con mayor contenido en arcilla, se requieren mayores dosis de Isoxaflutole y la eficiencia energética de la producción es menor. La persistencia de ciertas arvenses, especialmente de la clase Liliopsida, requiere de un manejo integrado que incluya diferentes tipos de herbicidas. ABSTRACT In Cuba, weeds affecting the sugarcane are one of the main causes of low agricultural yields, and their control constitutes some of the main items of expenditure. In general, herbicides are applied, as well as other control methods, without keeping in mind the soil type and the characteristics of these plants. Moreover, weed control research approaching aspects about energy efficiency of the crop production, and environmental damages are missing. Hence, the objective of this investigation was to evaluate diverse technologies of weed handling in sugarcane (Saccharum spp. hybrid), both in spring cane plant and ratoon, in three types of soils, with the purpose of obtaining sustainable productions. The study area was located in the fields of the Sugar Enterprise of the Municipality "Majibacoa”, Las Tunas province (east of Cuba) that possesses ecological conditions that are plentiful along the country. The three more representative types of soils are Fersialitic, Brown, and Vertisol. In this area 31 weeds species have been identified, 16 of the Class Liliopsida and 15 of the Magnoliopsida. In a first group of experiments, nine field rehearsals were developed to evaluate the effectiveness of herbicides and mixtures of these for weed handling in sugarcane, in spring cane plants as well as in ratoon, in the three types of soils. Plots of 80 m-2 were distributed at random blocks with four replications. The effectiveness was evaluated by means of the covering percentage by weeds and the provoked toxicity to the cane plants, keeping in mind the cost associated to each treatment. In preemergence applications in spring cane plant, the most efficient herbicide was the Isoxaflutole with dose of 0.15; 0.20 and 0.25 kg.ha-1 of commercial product (pc) in the soils Fersialítico, Brown and Vertisol respectively. In early postemergence applications the most efficient mixture was that of Isoxaflutole + Ametrina + 2,4-D with the doses of Isoxaflutole mentioned previously. In preemergence applications in ratoon, the most efficient herbicide was the Isoxaflutole at dose of 0.20 kg.ha-1 pc for the soil Fersialític and to 0.25 kg. ha-1 pc for the Brown soil and Vertisol. In a second group, six field rehearsals distributed in two phases were carried out. In the first phase, three experiments were developed, one for each soil type, to evaluate the efficiency of nine technologies of weed handling in spring cane plant. In the following phase, the three remaining rehearsals (one for each soil type) diverse technologies of weed handling were evaluated during two cycles of sugarcane production (spring stage and ratoon). In the spring stage the most efficient technology in the three previous experiments was applied and during ratoon stage other nine technologies were evaluated. In these experiments the different treatments were applied in fringes distributed at random with four replicas. In the evaluated technologies the herbicides and mixtures were used selecting those that were more efficient in the first group of experiments. In each case, the energy efficiency of the sugar production and other derivatives, the soil penetration resistance, the polluting load toward the atmosphere product of the combustion, and the benefits when applying the different technologies were all evaluated. In the first phase (spring cane plant), the technology with better result was the preemergence application of Isoxaflutole immediately after the plantation, followed by chemical eradication with Ammonia Glufosinate, hoeing work with multiple tier approximately to the 80 days of the plantation and pre-closing application with Ammonia Glufosinate. In the second phase (two cycles of the cultivation), the best result was obtained when a preemergence application of Isoxaflutole was carried out in sprout's stage, chemical eradication with Ammonia Glufosinate and pre-closing application with this same herbicide. In the three types of soils during the two cycles, the energy efficiency achieved values of 7.2 to 7.5, the resistance to the penetration 1.2 - 1.5 MPa, the polluting load toward the atmosphere was of 63.3 - 64.9 kg.t-1 of the harvested cane and the obtained benefits of 8,324 - 8,455 Cuban pesos per hectare. This study demonstrates that an efficient control of the weeds should necessarily keep in mind the soil type. This way, in the Vertisols, with more clay content, bigger dose of Isoxaflutole is required and the energy efficiency of the production is smaller. The persistence of certain weeds, especially of the class Liliopsida, requires of an integrated handling him to include different types of herbicides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Este Trabajo Fin de Máster (TFM) analiza la importancia de la información poblacional en el análisis de datos de experimentos en IS. Por otro lado se intenta abordar un estudio sobre las posibles metodologías que se pueden usar para realizar dicho análisis. Contexto: El análisis se realiza sobre los resultados de un experimento llevado a cabo por el Grupo de Investigación de IS empírica de la UPM, cuyo objetivo es analizar el impacto que tiene el uso de TDD (Test Driven Development) sobre la calidad y la productividad del desarrollo software en comparación con el desarrollo tradicional TLD. Método de Investigación: Se analizan ocho variables demográficas frente a tres variables respuesta. Las metodologías o técnicas de análisis que se revisan son la Dicotomización, la Correlación de Pearson, la regresión lineal múltiple y la stepwise regression. Resultados: No se encuentran evidencias claras para afirmar que las variables demográficas influyen en los resultados de los experimentos. No obstante los resultados no son del todo concluyentes y queda abierta la investigación a realizarse con una muestra más amplia y representativa. En relación a la metodología de análisis aplicada, la dicotomización y la correlación de Pearson presentan deficiencias que se solventan con la regresión lineal múltiple y la stepwise regression. Conclusión: Resulta de vital importancia encontrar evidencias de la influencia de las características demográficas de los sujetos experimentales en el análisis de los datos experimentos en IS. Se ha encontrado un buen método para analizar esta influencia, pero falta replicar este análisis a más experimentos de IS para obtener resultados mejor fundados.---ABSTRACT---Objective: This Master's Thesis (TFM) discusses the importance of demographic data in the analysis of data from experiments in SE. On the other hand, it attempts to address a study of the possible methodologies that can be used to perform the analysis. Context: The analysis is performed on the results of an experiment conducted by the ESE Research Group of the UPM, aimed at analyzing the impact of the use of TDD (Test Driven Development) on quality and productivity, compared to traditional development TLD (Test Last Development). Research Method: Eight demographic variables were analyzed against three response variables. The methodologies and analysis techniques that are reviewed include dichotomization, Pearson correlation, multiple linear regression and stepwise regression. Results: There is not clear evidence to say that demographic variables influence the results of SE experiments. However the results are not conclusive, and are open to research with a broader and more representative sample. Regarding the applied analysis methodology, dichotomization and Pearson correlation have deficiencies that are solved with multiple linear regression and stepwise regression. Conclusion: It is very important to find evidence on the influence of demographic characteristics of subjects in the data analysis of SE experiments. We found a good way to analyze this influence, but is necessary replicate this analysis on more SE experiments to obtain sound results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La participación de los jóvenes en los procesos de planificación urbana en Lisboa, Madrid y Fortaleza ha sido tema central de la presente tesis. Los principales objetivos perseguidos consisten en: caracterizar y analizar críticamente las dimensiones más importantes de la participación de jóvenes universitarios en los procesos participativos; aportar características de interés juvenil para un “modelo” de planificación urbana; elaborar directrices para el diseño de actuaciones en un proceso urbano participativo desde la perspectiva de los jóvenes; establecer el alcance de un instrumento urbano participativo reglamentado por el gobierno local entre los jóvenes; determinar si la percepción de los jóvenes universitarios acerca de las acciones del gobierno local tiene influencia en los procesos participativos. El universo estadístico de la muestra lo conforman la totalidad de 737 jóvenes universitarios encuestados en Lisboa, Madrid y Fortaleza. Que se distribuye en 104 encuestados en Lisboa, 329 en Madrid, y 304 en la ciudad de Fortaleza. El cuestionario contiene preguntas: abiertas, cerradas y mixtas. La mayor parte de las cuestiones son cerradas, y en cuanto a las opciones de respuesta: en muchas preguntas se ha aplicado, una escala tipo Likert, entre 1 y 4, siendo 4 el grado más alto (totalmente de acuerdo), y 1 el grado más bajo (nada de acuerdo), y para otras, una opción múltiple, con solamente una opción de respuesta. Se realizó un cuestionario de 31 preguntas en Lisboa, y tras su aplicación y obtención de resultados se revisó y mejoró obteniendo un cuestionario de 23 preguntas que fue aplicado en Madrid y Fortaleza. Se realizan análisis descriptivos, y algún análisis factorial en diversas preguntas del cuestionario, y se estudian diferencias en función de las variables sociodemográficas planteadas. Los resultados constatan que es muy baja la participación en los procesos institucionalizados por el gobierno local, en contrapartida es bastante alta en los procesos organizados por los ciudadanos. La información limita la participación de los jóvenes y ya que estos reconocen como motivación estar más y mejor informados y controlar y acompañar las acciones de su gobierno local. Por otra parte, desean participar en grupo en foros y debates presenciales. Los jóvenes madrileños consideran que las etapas más importantes en un proceso urbano participativo son: información, seguimiento y evaluación, mientras que para los jóvenes de Fortaleza son: Fiscalización, concienciación e información. Se ha verificado que desde la percepción de los jóvenes de Lisboa los ciudadanos son consultados en los procesos urbanos participativos y de acuerdo con los jóvenes de Madrid y Fortaleza los ciudadanos son dirigidos, influenciados y manipulados. Los problemas de carácter urbano no tienen una conceptualización clara y precisa entre los jóvenes universitarios y los problemas urbanos que más afectan la vida de los jóvenes universitarios son aparcamientos, contaminación y seguridad urbana. Sin embargo, los transportes son apuntados por los jóvenes universitarios de Lisboa, Madrid y Fortaleza. Además no saben identificar los problemas de su barrio. Así como de las causas y consecuencias y soluciones de los problemas urbanos. Eligen como mejor estrategia para desarrollar un proceso urbano participativo el acuerdo entre técnicos, población y el gobierno local. Los jóvenes universitarios de Fortaleza apuntan directrices para una planificación urbana con énfasis en la seguridad urbana, la sostenibilidad y la investigación, tecnología e innovación. Por otro lado, los jóvenes universitarios de Madrid perfilan tres “modelos” de planificación urbana: un “Modelo” socio-económica, un “Modelo” sostenible e innovadora y un “Modelo” de Planificación Urbana con énfasis en espacios públicos, entretenimiento, seguridad urbana y deporte. Los jóvenes universitarios rechazan la idea que la planificación urbana lleva en cuenta sus perspectivas y opiniones. Respeto al Presupuesto Participativo, el alcance de dicho proceso entre los jóvenes universitarios es extremamente bajo. Sin embargo, opinan que la aproximación entre ciudadanos, técnicos y gobierno en los procesos de Presupuesto Participativo mejora la rendición de cuentas. Además los jóvenes creen que dichos procesos conceden un poder moderado a los ciudadanos, y consideran que el poder concedido en los procesos urbanos influye directamente en el interés y empeño en participar. ABSTRACT Youth participation in urban planning processes in Lisbon, Madrid and Fortaleza is the main subject of this thesis. Our key goals are the following: characterising and critically analysing the most important dimensions of young university students’ participation in participative processes; providing features of interest for the young for an urban planning “model”; developing a variety of guidelines for designing actions in a participative urban process from the perspective of young people; analysing the impact upon the young of a participative urban instrument implemented by the local government; determining whether young university students’ perception of local government actions influences participative processes. The statistical universe of the sample comprises a total of 737 young university students who were surveyed in Lisbon, Madrid and Fortaleza, distributed as follows: 104 respondents in Lisbon, 329 in Madrid, and 304 in Fortaleza. The survey is made up of open-ended, closed-ended and mixed questions. Most questions are closed-ended. Regarding the answer options, a Likert-type scale has been used in many questions. The scale ranges from 1 to 4, 4 being the highest value (completely agree) and 1 the lowest (completely disagree). Besides, there are multiple-choice questions with only one possible answer. A 31- question survey was conducted in Lisbon. After the survey was run and the results were obtained, it was reviewed and improved. The improved version was a 23- question survey which was conducted in Madrid and Fortaleza. Descriptive analyses as well as some factorial analyses are carried out in several questions, and differences are studied depending on the socio-demographic variables involved. The results show that participation in processes implemented by local governments is very low. In contrast, participation is quite high in processes organised by citizens. Information limits youth participation, as young people point out that they are motivated by more and better information and by the possibility of monitoring and keeping track of their local government actions. They also wish to take part in face-to-face group forums and discussions. Young people from Madrid think that the most important stages in participative urban processes are information, follow-up and assessment, whereas young people from Fortaleza highlight tax matters, awareness and information. It has been confirmed that Lisbon youth perceive that citizens are consulted in participative urban processes. Youth from Madrid and Fortaleza, on the other hand, state that citizens are directed, influenced and manipulated. Young university students do not have a clear, precise concept of urban problems. Among these, they are most affected by car parks, pollution and urban safety, but the transport problem is pointed out by young university students from Lisbon, Madrid and Fortaleza. Furthermore, they cannot identify the problems in their neighbourhoods, nor are they able to specify the causes, consequences and solutions of urban problems. Their preferred strategy for developing a participative urban process is an agreement between technicians, the population and the local government. Young university students from Fortaleza suggest guidelines for an urban planning approach emphasising urban safety, sustainability and research, technology and innovation. Those from Madrid, for their part, outline three urban planning “models”: a socioeconomic “model”, a sustainable and innovative “model”, and an urban planning “model” with a focus on public areas, entertainment, urban safety and sport. Young university students disagree that urban planning takes their perspectives and views into account. Moreover, the impact of the Participative Budget upon their lives is extremely low. In their opinion, however, closer collaboration between citizens, technicians and governments in Participative Budget processes promotes accountability. The young also think that these processes give moderate power to citizens, and in their view the power that can be exerted in urban processes directly influences the interest in participating and the will to do so.