884 resultados para Rendimiento de la cosecha


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El agua ha sido un elemento presente en muchas cosmogonías. El agua es necesaria a la vida, sin ella no existiría la vida como la conocemos. Esta percepción sobre el agua es tan antigua como la misma humanidad, haciéndose particularmente importante en pueblos donde ella no abunda, pueblos donde la orografía es desértica o pueblos donde el agua en forma de ríos se hace fundamental a la cosecha y por consiguiente a la vida, como los pueblos del cercano oriente, en particular los pueblos de la región del levante. Siendo esto así, pareciera peculiar la importancia dada por los primeros pensadores griegos, llamados filósofos presocráticos, al elemento agua en su filosofía. Argumentaré que el elemento agua es extraño al pensamiento griego, como elemento primigenio. Para ello discutiré algunos de los textos cosmogónicos griegos y del cercano oriente

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Suele afirmarse que Santiago del Estero concentra un elevado número de campesinos. En este artículo presentamos una primera aproximación al tema con el propósito de comenzar a desmitificar dicha idea. Para ello, recurrimos a datos arrojados por el Formulario de Caracterización Familiar del PROINDER, año 2009 -ejecutado desde la Subsecretaría de Desarrollo Rural y Agricultura Familiar de Santiago del Estero- y entrevistas realizadas en parajes rurales del departamento de Atamisqui en abril del 2010. El Formulario utilizado nos permite, entre otras cosas, mensurar el peso que las distintas fuentes de ingreso tienen en el total del ingreso familiar. Esto, junto a los testimonios recogidos en las entrevistas, nos permite conocer de qué viven las familias analizadas. Se observa que el sustento más importante proviene del trabajo estacional asalariado desarrollado en distintas actividades rurales (aunque especialmente en el desflore de maíz y la cosecha de arándanos) y de transferencias diversas (jubilaciones, beneficios sociales, remesas). Estos datos nos estarían indicando, en este caso particular, que el sujeto habitualmente caracterizado como campesinado esconde, en realidad, a la clase obrera rural atamisqueña

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En los últimos años Mar del Plata está intentando pasar de ser una ciudad balnearia para ser una ciudad turística. Por esto las estrategias turísticas surgidas desde los organismos oficiales han sido posicionar a la ciudad bajo el lema 'Mar del Plata todo el año'. En esto, el alojamiento y básicamente el sector hotelero, juegan un rol fundamental. Además, la industria hotelera es una de las que mayor empleo genera en las ciudades en las que se ubica. Nuestro estudio se focaliza en el sector hotelero y sus recursos humanos, analizando los cambios en el trabajo impuestos por las nuevas condiciones y la globalización y como esto repercute en la Salud Ocupacional del sector: las consultas por patologías originadas en el trabajo o afectadas por él, se han multiplicado en forma alarmante. Enfermedades psicosomáticas, ataques de pánico, depresión, burn out, víctimas de mobbing, etc., sin olvidar las gastritis, contracturas cervicales, lumbalgias o reacciones alérgicas varias, síntomas contemporáneos que se han incorporado casi naturalmente a nuestro estilo de vida. La epidemiología concibe el fenómeno salud enfermedad, como un proceso dinámico en que se pasa de un estado a otro, repetidamente en un proceso de búsqueda permanente del equilibrio, en el que inciden factores de orden social, político, sanitario, genético, ecológico, demográfico, cultural, etc.. La salud ocupacional permite el enriquecimiento humano y profesional en el trabajo. Para la Organización Internacional del Trabajo (OIT, 1984) los factores psicosociales en el trabajo, consisten por un lado en interacciones entre el trabajo, su medio ambiente, la satisfacción en el trabajo y las condiciones de su organización, y por el otro, en las capacidades del trabajador, sus necesidades, su cultura y su situación personal fuera del trabajo, todo lo cual, a través de percepciones y experiencias, puede influir en el rendimiento y la satisfacción en el trabajo y afectar la salud del trabajador. El grupo GIPsIL de la Universidad Nacional de Mar del Plata, se ha propuesto una investigación en el sector hotelero, tan importante de la realidad marplatense. El grupo es interdisciplinario, conformado por Lic. En Psicología, Lic. En Turismo, Lic. En Administración, Contador, y estudiantes interesados en el tema Existen distintas conceptualizaciones y formas diferentes de medir el engagement, que impiden la formulación de una única definición sintética. Adherimos a un modelo en el que el engagement, entendido como estado psicológico está mediando el impacto de los recursos laborales y de los recursos personales en los resultados organizacionales. Esto significa que los recursos tanto laborales como personales tienen un impacto indirecto en los resultados organizacionales a través del estado psicológico de los trabajadores. Para incrementar el engagement de los empleados, se debe saber no sólo qué es y cómo medirlo, sino también cuáles son sus causas y sus consecuencias. El engagement se considera el antídoto positivo del Burnout. Para los trabajadores engaged, el trabajo es algo positivo porque disfrutan con y de lo que hacen. En cambio, los trabajadores quemados o con Burnout, se sienten agotados y fatigados, tienen actitudes cínicas y escépticas sobre su trabajo, y se sienten mal en ellos. Ambos tipos de bienestar psicosocial son opuestos se ilustra en la correlación negativa que existe entre Burnout y engagement

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Revisamos en este artículo los temas en los que ingenieros y científicos están trabajando para aportar innovaciones a la cosecha de cereal. Además se revisa el mercado español y las últimas novedades comerciales presentadas por los fabricantes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Abstract This work is a contribution to the research and development of the intermediate band solar cell (IBSC), a high efficiency photovoltaic concept that features the advantages of both low and high bandgap solar cells. The resemblance with a low bandgap solar cell comes from the fact that the IBSC hosts an electronic energy band -the intermediate band (IB)- within the semiconductor bandgap. This IB allows the collection of sub-bandgap energy photons by means of two-step photon absorption processes, from the valence band (VB) to the IB and from there to the conduction band (CB). The exploitation of these low energy photons implies a more efficient use of the solar spectrum. The resemblance of the IBSC with a high bandgap solar cell is related to the preservation of the voltage: the open-circuit voltage (VOC) of an IBSC is not limited by any of the sub-bandgaps (involving the IB), but only by the fundamental bandgap (defined from the VB to the CB). Nevertheless, the presence of the IB allows new paths for electronic recombination and the performance of the IBSC is degraded at 1 sun operation conditions. A theoretical argument is presented regarding the need for the use of concentrated illumination in order to circumvent the degradation of the voltage derived from the increase in the recombi¬nation. This theory is supported by the experimental verification carried out with our novel characterization technique consisting of the acquisition of photogenerated current (IL)-VOC pairs under low temperature and concentrated light. Besides, at this stage of the IBSC research, several new IB materials are being engineered and our novel character¬ization tool can be very useful to provide feedback on their capability to perform as real IBSCs, verifying or disregarding the fulfillment of the “voltage preservation” principle. An analytical model has also been developed to assess the potential of quantum-dot (QD)-IBSCs. It is based on the calculation of band alignment of III-V alloyed heterojunc-tions, the estimation of the confined energy levels in a QD and the calculation of the de¬tailed balance efficiency. Several potentially useful QD materials have been identified, such as InAs/AlxGa1-xAs, InAs/GaxIn1-xP, InAs1-yNy/AlAsxSb1-x or InAs1-zNz/Alx[GayIn1-y]1-xP. Finally, a model for the analysis of the series resistance of a concentrator solar cell has also been developed to design and fabricate IBSCs adapted to 1,000 suns. Resumen Este trabajo contribuye a la investigación y al desarrollo de la célula solar de banda intermedia (IBSC), un concepto fotovoltaico de alta eficiencia que auna las ventajas de una célula solar de bajo y de alto gap. La IBSC se parece a una célula solar de bajo gap (o banda prohibida) en que la IBSC alberga una banda de energía -la banda intermedia (IB)-en el seno de la banda prohibida. Esta IB permite colectar fotones de energía inferior a la banda prohibida por medio de procesos de absorción de fotones en dos pasos, de la banda de valencia (VB) a la IB y de allí a la banda de conducción (CB). El aprovechamiento de estos fotones de baja energía conlleva un empleo más eficiente del espectro solar. La semejanza antre la IBSC y una célula solar de alto gap está relacionada con la preservación del voltaje: la tensión de circuito abierto (Vbc) de una IBSC no está limitada por ninguna de las fracciones en las que la IB divide a la banda prohibida, sino que está únicamente limitada por el ancho de banda fundamental del semiconductor (definido entre VB y CB). No obstante, la presencia de la IB posibilita nuevos caminos de recombinación electrónica, lo cual degrada el rendimiento de la IBSC a 1 sol. Este trabajo argumenta de forma teórica la necesidad de emplear luz concentrada para evitar compensar el aumento de la recom¬binación de la IBSC y evitar la degradación del voltage. Lo anterior se ha verificado experimentalmente por medio de nuestra novedosa técnica de caracterización consistente en la adquisicin de pares de corriente fotogenerada (IL)-VOG en concentración y a baja temperatura. En esta etapa de la investigación, se están desarrollando nuevos materiales de IB y nuestra herramienta de caracterizacin está siendo empleada para realimentar el proceso de fabricación, comprobando si los materiales tienen capacidad para operar como verdaderas IBSCs por medio de la verificación del principio de preservación del voltaje. También se ha desarrollado un modelo analítico para evaluar el potencial de IBSCs de puntos cuánticos. Dicho modelo está basado en el cálculo del alineamiento de bandas de energía en heterouniones de aleaciones de materiales III-V, en la estimación de la energía de los niveles confinados en un QD y en el cálculo de la eficiencia de balance detallado. Este modelo ha permitido identificar varios materiales de QDs potencialmente útiles como InAs/AlxGai_xAs, InAs/GaxIni_xP, InAsi_yNy/AlAsxSbi_x ó InAsi_zNz/Alx[GayIni_y]i_xP. Finalmente, también se ha desarrollado un modelado teórico para el análisis de la resistencia serie de una célula solar de concentración. Gracias a dicho modelo se han diseñado y fabricado IBSCs adaptadas a 1.000 soles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dentro de los paradigmas de programación en el mundo de la informática tenemos la "Programación Lógica'', cuyo principal exponente es el lenguaje Prolog. Los programas Prolog se componen de un conjunto de predicados, cada uno de ellos definido en base a reglas que aportan un elevado nivel de abstracción y declaratividad al programador. Sin embargo, las formulación con reglas implica, frecuentemente, que un predicado se recompute varias veces para la misma consulta y además, Prolog utiliza un orden fijo para evaluar reglas y objetivos (evaluación SLD) que puede entrar en "bucles infinitos'' cuando ejecuta reglas recursivas declarativamente correctas. Estas limitaciones son atacadas de raiz por la tabulación, que se basa en "recordar'' en una tabla las llamadas realizadas y sus soluciones. Así, en caso de repetir una llamada tendríamos ya disponibles sus soluciones y evitamos la recomputación. También evita "bucles infinitos'' ya que las llamadas que los generan son suspendidas, quedando a la espera de que se computen soluciones para las mismas. La implementación de la tabulación no es sencilla. En particular, necesita de tres operaciones que no pueden ser ejecutadas en tiempo constante simultáneamente. Dichas operaciones son: suspensión de llamadas, relanzamiento de llamadas y {acceso a variables. La primera parte de la tesis compara tres implementaciones de tabulación sobre Ciao, cada una de las cuales penaliza una de estas operaciones. Por tanto, cada solución tiene sus ventajas y sus inconvenientes y se comportan mejor o peor dependiendo del programa ejecutado. La segunda parte de la tesis mejora la funcionalidad de la tabulación para combinarla con restricciones y también para evitar computaciones innecesarias. La programación con restricciones permite la resolución de ecuaciones como medio de programar, mecanismo altamente declarativo. Hemos desarrollado un framework para combinar la tabulación con las restricciones, priorizando objetivos como la flexibilidad, la eficiencia y la generalidad de nuestra solución, obteniendo una sinergia entre ambas técnicas que puede ser aplicada en numerosas aplicaciones. Por otra parte, un aspecto fundamental de la tabulación hace referencia al momento en que se retornan las soluciones de una llamada tabulada. Local evaluation devuelve soluciones cuando todas las soluciones de la llamada tabulada han sido computadas. Por contra, batched evaluation devuelve las soluciones una a una conforme van siendo computadas, por lo que se adapta mejor a problemas donde no nos interesa encontrar todas las soluciones. Sin embargo, su consumo de memoria es exponencialmente peor que el de local evaluation. La tesis presenta swapping evaluation, que devuelve soluciones tan pronto como son computadas pero con un consumo de memoria similar a la de local evaluation. Además, se implementan operadores de poda, once/1, para descartar la búsqueda de soluciones alternativas cuando encontramos la solución deseada. Por último, Prolog adopta con relativa facilidad soluciones para paralelismo gracias a su flexibilidad en el control de la ejecución y a que sus asignaciones son lógicas. La tercera parte de la tesis extiende el paralelismo conjuntivo de Ciao para trabajar con programas no deterministas, lo que presenta dos problemas principales: los objetivos atrapados y la recomputación de objetivos. Las soluciones clásicas para los objetivos atrapados rompían muchos invariantes de la ejecución Prolog, siendo soluciones difíciles de mantener y de extender, que la experiencia nos dice que han caído en desuso. Nosotros proponemos una solución modular (basada en la implementación de swapping evaluation), localizada y que no rompe los invariantes de la ejecución Prolog, pero que mantiene un alto rendimiento de la ejecución paralela. En referencia a la recomputación de objetivos paralelos en presencia de no determinismo hemos adaptado ténicas derivadas de la tabulación para memorizar computaciones de estos objetivos y evitar su recomputación.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The aim of this work was to evaluate different management strategies to optimize rabbit production under chronic heat stress. To achieve it, three trials were conducted. In the first trial, to find the optimal cage density in tropical very dry forest condition, were measured growth performance, mortality rate, injured animals and carcass performance over an initial population of 300 cross-breed rabbits of New Zealand, California, Butterfly, Dutch and Satin, weaned at 30 days (535 ± 8 g, standard error). Treatments evaluated were: 6, 12, 18 and 24 rabbits/m2 (3, 6, 9 and 12 rabbits/cage, respectively, each cage of 0.5 m2). The maximal temperature-humidity index indicated a severe heat stress from weaning to 2.2 kg body weight (experimental time). At the end of experimental period 10, 20, 30 and 30 rabbits from the treatments of 6, 12, 18 and 24 rabbits/m2, respectively, were slaughtered and carcass performance recorded. Average daily gain and feed intake decreased by 0.31 ± 0.070 and 1.20 ± 0.25 g, respectively, per each unit that the density increased at the beginning of the experiment (P = 0.001). It increased the length of the fattening period by 0.91 ± 0.16 d (P = 0.001) per each unit of increment of density. However, rabbit production (kg/m2) increased linear and quadratically with the density (P < 0.008). Animals housed at the highest density compared to the lower one tended to show a higher incidence of ringworm (68.9 vs 39.4%; P = 0.075), injured animals (16.8 vs 3.03%; P = 0.12) and mortality (20.5 vs 9.63%; P = 0.043). The proportion of scapular fat (P = 0.042) increased linearly with increasing levels of density. Increasing density reduced linearly dorsal length (P = 0.001), and reduced linear and quadratically drip loss percentage (P = 0.097 and 0.018, respectively). In the second trial, 46 nulliparous rabbit does (23 clipped and 23 unclipped) with a BW of 3.67 ± 0.05 kg (s.e.) were used to evaluate heat stress and circadian rhythms comparing unclipped and clipped rabbit does, and to study if a more extensive breeding system increase litters performance at weaning without impairing rabbit doe performance,. Rectal temperature, feed and water 4 intake were recorded for 24 h. Rabbit does were mated 7 d after circadian measurements, and randomly assigned to two breeding systems. Control (C): mated at 14 d after parturition + litter weaned at 35 d of age. Extensive (E): mate at 21 after parturition + litter weaned at 42 d of age. The first three cycles were evaluated concerning to rabbit doe and litter performance. Two hundred twenty eight weaned rabbits, were divided into two cage sizes: 0.5 and 0.25 m2 with same density (16 rabbit/m2) and growing performance was recorded. Farm and rectal temperatures were minimal and feed and water intake maximal during the night (P < 0.001). Unclipped rabbit does showed higher rectal temperature (P = 0.045) and lower feed intake respect to clipped does (P = 0.019) which suggest a lower heat stress in the latter. Kits weaned per litter was reduced by 33% (P=0.038) in C group. This reduction was more important in the 2nd and 3rd cycles compared to the first (P ≤ 0.054). Rabbit doe feed efficiency tended to decrease in E respect C group (P = 0.093), whereas it was impaired from the first to the third cycle by 48% (P = 0.014). Growing rabbits from the E group were heavier at weaning (by 38%. P < 0.001), showed a higher feed intake (+7.4%) and lower feed efficiency (-8.4%) throughout the fattening period (P ≤ 0.056) respect to C group. Cage size had minor influence in growing performance. In the third trial, forty five non pregnant and non lactating rabbit does (21 nulliparous and 24 multiparous) were assigned randomly to farm water and to potable water to study if a water quality improvement can affect positively rabbit doe response to heat stress during pregnancy and lactation. A transponder was implanted in each animal to record subcutaneous temperature at 07:30 and 14:30 h. Experimental period extended from pregnancy (with no lactation) to the next lactation (until day 28). Body temperature and milk production were recorded daily, and body condition, feed and water intake weekly. Water quality did not affect any trait (P ≥ 0.15). Pregnant rabbit does were classified as does that weaned (W: 47%), not weaned (NW: 44%) or those pregnant that did not deliver (NB: 9%). Body temperature and feed intake decreased during pregnancy (P ≤ 0.031), but water intake remained constant. In this period body temperature decreased with metabolic weight (P ≤ 0.009). In W and NW does, 5 from mating to birth energy and protein balance impaired (P≤0.011). Body temperature of W does tended to be the lowest (P ≤ 0.090). Pregnancy length and total number of kits born tended to be longer and higher in NW than in W does (P = 0.10 and 0.053, respectively). Kit mortality at birth and from birth to 14 d of lactation was high, being worse for NW than for W does (97 vs. 40%; P<0.001). Body temperature during lactation was maximal at day 12, and milk production increased it (P ≤ 0.025). . In conclusion, in our heat stress conditions densities higher than 18 rabbits/m2 (34 kg/m2) at the end of fattening, are not recommended despite cage size, gestation and lactation productivity impaired not only when lactation is extended and along successive reproductive cycles but also due to a reduced embryo/kit survival and finally water quality improvement did not attenuate negative effect of heat stress. RESUMEN El propósito de éste trabajo fue evaluar diferentes estrategias de manejo para optimizar la producción de conejos bajo estrés térmico. Para lo cual se desarrollaron tres experimentos. En el primer experimento, para encontrar el número óptimo de gazapos por m2 de jaula durante el cebo en condiciones de bosque muy seco tropical, se estudiaron los rendimientos durante el cebo, mortalidad, animales lesionados y rendimiento de la canal sobre una población inicial de 300 conejos mestizos de Nueva Zelanda, California, Mariposa, Holandés y Satin, destetados a los 30 días de edad (535 ± 8g, error estándar). Los tratamientos evaluados fueron: 6, 12, 18 y 24 conejos/m2 (3, 6, 9 y 12 conejos/jaula, respectivamente, en jaulas de 0.5 m2). Durante el período experimental (destete a 2.2 kg de peso vivo), se observaron valores de THI correspondientes con un estrés térmico severo (THI max. De 31 a 35). Al final del período experimental, 10, 20, 30, y 30 conejos de los tratamientos con densidades de 6, 12, 18 y 24 conejos/m2, respectivamente, fueron sacrificados y su canal fue valorada. El promedio de la ganancia diaria y el consumo de alimento disminuyeron en 0.31 ± 0.070 y 1.20 ± 0.25 g, respectivamente, por cada unidad de incremento en la densidad al inicio del experimento (P=0.001). Esto alargó el período de engorde en 0.91 ± 0.16 d (P=0.001) por cada unidad de incremento de la densidad. Sin embargo, la producción de conejos (kg/m2) aumentó lineal y cuadráticamente con la densidad (P<0.008). Los animales alojados en las mayores densidades en comparación con el resto tendieron a mostrar una mayore incidencia de tiña (68.9 vs 39.4%; P=0.075), de cantidad de animales heridos (16.8 vs 3.03%; P=0.12), así como de mortalidad (20.5 vs 9.63%; P=0.043). El aumento en la densidad aumentó linealmente la proporción de grasa escapular (P=0.042) y redujo linealmente la longitud dorsal (P=0.001), y lineal y cuadráticamente el porcentaje de pérdida por goteo (P=0.018). En el segundo experimento, 46 conejas nulliparas (23 rasuradas y 23 no rasuradas) con un peso vivo de 3.67 ± 0.05 kg (e.e.) fueron usadas para evaluar el estrés 8 térmico y los ritmos circadianos comparando conejas rasuradas o no, y estudiar si un sistema de crianza más extensivo mejora el desempeño de la camada al destete sin perjudicar la productividad de la coneja. Durante 24 h se midió la temperatura rectal, consumo de alimento y de agua. Las conejas fueron montadas 7 días después, y distribuidas en dos sistemas de crianza. El control (C): monta a 14 días posparto y destete a 35 d de edad. El extensivo (E): monta a 21 días posparto y destete a 42 d de edad. Se controló la productividad de la coneja y la camada durante los tres primeros ciclos. Doscientos veintiocho gazapos fueron distribuidos en dos tamaños de jaulas (0.5 y 0.25 m2) con la misma densidad (16 conejos/m2) y se controlaron sus rendimientos productivos. Durante la noche se observaron los valores mínimos para la temperatura ambiental y rectal, y los máximos para consumo de alimento y agua (P< 0.001). Las conejas no rasuradas mostraron mayor temperatura rectal (P=0.045) y menores valores de consumo de alimento con respecto a las conejas rasuradas (P=0.019), lo que sugiere un menor estrés térmico en las últimas. El número de gazapos destetados por camada se redujo en 33% (P=0.038) en el grupo C. Este comportamiento se acentuó en el 2do y 3er ciclo en comparación con el primero (P≤0.054). La eficiencia alimenticia de las conejas tendió a disminuir en el grupo E con respecto al grupo C (P=0.093), dicha tendencia se acentúa del primer al tercer ciclo en un 48% (P=0.014). Los gazapos en fase de crecimiento provenientes del grupo E fueron más pesados al momento del destete (en 38% P<0.001), mostrando un mayor consumo de alimento (+7.4%) y menor eficiencia alimenticia (-8.4%) a lo largo del engorde (P≤0.056) con respecto al grupo C. El tamaño de la jaula tuvo una mínima influencia en el comportamiento durante el crecimiento de éstos gazapos. En el tercer experimento, cuarenta y cinco conejas no gestantes ni lactantes (21 nulíparas y 24 multíparas) se les asignó al azar agua dos tipos de agua: común de la granja y agua potable, con el fin de estudiar si una mejora en la calidad del agua puede afectar positivamente la respuesta de la coneja al estrés térmico durante la gestación y la lactancia. Se les implantó un transponder para registrar la temperatura subcutánea a las 7:30 y a las 14:30 h. El período experimental se extendió desde la gestación (sin 9 lactancia) hasta la lactanción consecutiva (hasta los 28 días). La temperatura corporal y la producción de leche se controlaron diariamente, y la condición corporal, consumo de agua y alimento, semanalmente. La calidad del agua no afectó a ninguna variable (P≥0.15). Las conejas preñadas fueron clasificadas como conejas que destetaron (W: 47%), que no destetaron (NW:44%) o aquellas que no parieron (NB: 9%). La temperatura corporal y consumo de alimento disminuyeron durante la gestación (P≤0.031), mientras que el consumo de agua se mantuvo constante. La temperatura corporal descendió con el peso metabólico durante la gestación (P≤0.009). El balance de energía y proteína disminuyó desde la monta al parto para las conejas W y NW (P≤0.011). Durante la gestación la temperatura corporal tendió a ser menor en las conejas W (P≤0.090). La longitud de la gestación y el número total de gazapos nacidos tendieron a ser mayores en conejas NW que en conejas W (P=0.10 y 0.053, respectivamente). La mortalidad de los gazapos al parto y del parto a los 14 días de lactancia fue alta, siendo peor para las conejas NW que para las W (97 vs 40%; P<0.001). Durante la lactancia la temperatura corporal alcanzó su valor máximo para el día 12, y la producción de leche indujo un incremento en la misma (P≤0.025). En conclusión, en nuestras condiciones de estrés térmico y sin importar el tamaño de la jaula, no se recomiendan densidades mayores a 18 conejos/m2 (34 kg/m2) al final del engorde. La productividad de la gestación y la lactancia disminuyen cuando la lactancia es mayor y se suceden varios ciclos reproductivos seguidos. Esto se debe al efecto negativo del estrés térmico sobre la vitalidad y supervivencia del embrión/gazapo. La mejora de la calidad del agua atenuó el efecto negativo del estrés térmico. Las conejas más productoras parece que son aquéllas que consiguen manejar mejor el estrés térmico.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El cultivo del tomate para industria está concentrado en España en los regadíos de las Vegas del Guadiana. La recolección del tomate, tradicionalmente efectuada a mano, comenzó a mecanizarse a principios de los años 70 cuando las empresas conserveras adquirieron 15 cosechadoras importadas de California, posteriormente, la crisis eco nómica provocó la aparición de mano de obra desocupada que arrincona a las cosechadoras y ha hecho que últimamente se hayan utilizado unas pocas horas al año. También en el Delta del Ebro se dedican algunas hectáreas al cultivo del tomate para industria, así como en ciertas áreas de Andalucía, existiendo varias cosechadoras. Es típico ver, en las fincas en las que trabajan las cosechadoras, ciertas cantidades de tomates que quedan en el suelo; al ser su color rojo muy llamativo, se obtiene la impresión de que la máquina se deja una gran parte de la cosecha. Durante el transporte a fábrica se aprecia que del camión o remolque cae un pequeño chorro de jugo de tomate procedente de los tomates rotos. En los últimos dos años se ha venido realizando un proyecto cooperativo de investigación sobre cultivo y recolección mecánica de tomate de industria, entre el Departamento de Mecanización Agraria y otros Departamentos y Organismos, como el Servicio de Extensión Agraria, Universidad de Evora en Portugal y la Dirección General, de la Producción Agraria, con unos objetivos amplios en su - mayor parte ya superados, y extensamente publicados (v. Bibliografía). En este trabajo se describen los ensayos realizados para cuantificar la calidad del trabajo de las cosechadoras de tomate en términos de porcentajes recogido y dañado. Las experiencias comenzaron en la campaña de 1979 y, en 1983, se ensayó también una nueva máquina fabricada en Portugal, de menor tamaño y precio que las californianas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hoy en día el uso de dispositivos portátiles multimedia es ya una realidad totalmente habitual. Además, estos dispositivos tienen una capacidad de cálculo y unos recursos gráficos y de memoria altos, tanto es así que por ejemplo en un móvil se pueden reproducir vídeos de muy alta calidad o tener capacidad para manejar entornos 3D. El precio del uso de estos recursos es un mayor consumo de batería que en ocasiones es demasiado alto y acortan en gran medida la vida de la carga útil de la batería. El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid ha abierto una línea de trabajo que busca la optimización del consumo de energía en este tipo de dispositivos, concretamente en el ámbito de la reproducción dedeo. El enfoque para afrontar la solución del problema se basa en obtener un mayor rendimiento de la batería a costa de disminuir la experiencia multimedia del usuario. De esta manera, cuando la carga de la batería esté por debajo de un determinado umbral mientras el dispositivo esté reproduciendo un vídeo de alta calidad será el dispositivo quien se autoconfigure dinámicamente para consumir menos potencia en esta tarea, reduciendo la tasa de imágenes por segundo o la resolución del vídeo que se descodifica. Además de lo citado anteriormente se propone dividir la descodificación y la representación del vídeo en dos procesadores, uno de propósito general y otro para procesado digital de señal, con esto se consigue que tener la misma capacidad de cálculo que con un solo procesador pero a una frecuencia menor. Para materializar la propuesta se usará la tarjeta BeagleBoard basada en un procesador multinúcleo OMAP3530 de Texas Instrument que contiene dos núcleos: un ARM1 Cortex-A8 y un DSP2 de la familia C6000. Este procesador multinúcleo además permite modificar la frecuencia de reloj y la tensión de alimentación dinámicamente para conseguir reducir de este modo el consumo del terminal. Por otro lado, como reproductor dedeos se utilizará una versión de MPlayer que integra un descodificador dedeo escalable que permite elegir dinámicamente la resolución o las imágenes por segundo que se decodifican para posteriormente mostrarlas. Este reproductor se ejecutará en el núcleo ARM pero debido a la alta carga computacional de la descodificación dedeos, y que el ARM no está optimizado para este tipo de procesado de datos, el reproductor debe encargar la tarea de la descodificación al DSP. El objetivo de este Proyecto Fin de Carrera consiste en que mientras el descodificador dedeo está ejecutándose en el núcleo DSP y el Mplayer en el núcleo ARM del OMAP3530 se pueda elegir dinámicamente qué parte del vídeo se descodifica, es decir, seleccionar en tiempo real la calidad o capa del vídeo que se quiere mostrar. Haciendo esto, se podrá quitar carga computacional al núcleo ARM y asignársela al DSP el cuál puede procesarla a menor frecuencia para ahorrar batería. 1 ARM: Es una arquitectura de procesadores de propósito general basada en RISC (Reduced Instruction Set Computer). Es desarrollada por la empresa inglesa ARM holdings. 2 DSP: Procesador Digital de Señal (Digital Signal Processor). Es un sistema basado en procesador, el cual está orientado al cálculo matemático a altas velocidad. Generalmente poseen varias unidades aritmético-lógicas (ALUs) para conseguir realizar varias operaciones simultáneamente. SUMMARY. Nowadays, the use of multimedia devices is a well known reality. In addition, these devices have high graphics and calculus performance and a lot of memory as well. In instance, we can play high quality videos and 3D environments in a mobile phone. That kind of use may increase the device's power consumption and make shorter the battery duration. Electronic and Microelectronic Design Group of Technical University of Madrid has a research line which is looking for optimization of power consumption while these devices are playing videos. The solution of this trouble is based on taking more advantage of battery by decreasing multimedia user experience. On this way, when battery charge is under a threshold while device is playing a high quality video the device is going to configure itself dynamically in order to decrease its power consumption by decreasing frame per second rate, video resolution or increasing the noise in the decoded frame. It is proposed splitting decoding and representation tasks in two processors in order to have the same calculus capability with lower frecuency. The first one is specialized in digital signal processing and the other one is a general purpose processor. In order to materialize this proposal we will use a board called BeagleBoard which is based on a multicore processor called OMAP3530 from Texas Instrument. This processor includes two cores: ARM Cortex-A8 and a TMS320C64+ DSP core. Changing clock frequency and supply voltage is allowed by OMAP3530, we can decrease the power consumption on this way. On the other hand, MPlayer will be used as video player. It includes a scalable video decoder which let us changing dynamically the resolution or frames per second rate of the video in order to show it later. This player will be executed by ARM core but this is not optimized for this task, for that reason, DSP core will be used to decoding video. The target of this final career project is being able to choose which part of the video is decoded each moment while decoder is executed by DSP and Mplayer by ARM. It will be able to change in real time the video quality, resolution and frames per second that user want to show. On this way, reducing the computational charge within the processor will be possible.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este proyecto realizaremos un estudio del efecto de las interferencias procedentes de las redes públicas y veremos cómo afectan el rendimiento de las comunicaciones GSM-R que están en la banda de frecuencias adyacente, por un lado, definiremos las características de las redes públicas y como afectan los niveles de potencia y los anchos de banda de redes de banda ancha, especialmente LTE que dispone de un ancho de banda adaptativo que puede llegar hasta 20 MHZ, y por otro lado definiremos las características y las exigencias de las comunicaciones GSM-R que es una red privada que se utiliza actualmente para comunicaciones ferroviales. Con el objetivo de determinar el origen y los motivos de estas interferencias vamos a explicar cómo se produzcan las emisiones no deseadas de las redes públicas que son fruto de la intermodulación que se produzca por las características no lineales de los amplificadores, entre las emisiones no deseadas se puede diferenciar entre el dominio de los espurios y el dominio de las emisiones fuera de banda, para determinar el nivel de las emisiones fuera de banda definiremos la relación de fugas del canal adyacente, ACLR, que determina la diferencia entre el pico de la señal deseada y el nivel de señal interferente en la banda de paso. Veremos cómo afectan estas emisiones no deseadas a las comunicaciones GSMR en el caso de interferencias procedentes de señales de banda estrecha, como es el caso de GSM, y como afectan en el caso de emisiones de banda ancha con los protocolos UMTS y LTE, también estudiaremos como varia el rendimiento de la comunicación GSM-R frente a señales LTE de diferentes anchos de banda. Para reducir el impacto de las interferencias sobre los receptores GSM-R, analizaremos el efecto de los filtros de entrada de los receptores GSM-R y veremos cómo varia la BER y la ACLR. Además, con el objetivo de evaluar el rendimiento del receptor GSM-R ante diferentes tipos de interferencias, simularemos dos escenarios donde la red GSM-R se verá afectada por las interferencias procedente de una estación base de red pública, en el primer escenario la distancia entre la BS y MS GSM-R será de 4.6 KM, mientras en el segundo escenario simularemos una situación típica cuando un tren está a una distancia corta (25 m) de la BS de red pública. Finalmente presentaremos los resultados en forma de graficas de BER y ACLR, y tablas indicando los diferentes niveles de interferencias y la diferencia entre la potencia a la que obtenemos un valor óptimo de BER, 10-3, sin interferencia y la potencia a la que obtenemos el mismo valor con interferencias. ABSTRACT In this project we will study the interference effect from public networks and how they affect the performance of GSM-R communications that are in the adjacent frequency band, furthermore, we will define the characteristics of public networks and will explain how the power levels and bandwidth broadband networks are affected as a result, especially LTE with adaptive bandwidth that can reach 20 MHZ. Lastly, we will define the characteristics and requirements of the GSM-R communications, a private network that is currently used for railways communications. In order to determine the origin and motives of these interferences, we will explain what causes unwanted emissions of public networks that occur as a result. The intermodulation, which is caused by the nonlinear characteristics of amplifiers. Unwanted emissions from the transmitter are divided into OOB (out-of-band) emission and spurious emissions. The OOB emissions are defined by an Adjacent Channel Leakage Ratio (ACLR) requirement. We'll analyze the effect of the OOB emission on the GSM-R communication in the case of interference from narrowband signals such as GSM, and how they affect emissions in the case of broadband such as UMTS and LTE; also we will study how performance varies with GSM-R versus LTE signals of different bandwidths. To reduce the impact of interference on the GSM-R receiver, we analyze the effect of input filters GSM-R receivers to see how it affects the BER (Bits Error Rate) and ACLR. To analyze the GSM-R receiver performance in this project, we will simulate two scenarios when the GSM-R will be affected by interference from a base station (BS). In the first case the distance between the public network BS and MS GSM-R is 4.6 KM, while the second case simulates a typical situation when a train is within a short distance, 25 m, of a public network BS. Finally, we will present the results as BER and ACLR graphs, and tables showing different levels of interference and the differences between the power to obtain an optimal value of BER, 10-3, without interference, and the power that gets the same value with interference.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En las últimas décadas hemos visto un rápido desarrollo de las redes de telecomunicación llegando a todos los rincones de la sociedad, bien a través de cable o bien de forma inalámbrica. Dichas redes, que cada vez son más grandes, dinámicas y complejas, integrando un mayor número de servicios y protocolos, requieren de un componente central que es el enrutamiento. El enrutamiento determina las estrategias a utilizar por los nodos de una red para encontrar las rutas óptimas entre un origen y un destino en el envío de información. Resulta difícil conseguir una estrategia que se adapte a este tipo de entornos altamente dinámicos, complejos y con un alto grado de heterogeneidad. Los algoritmos clásicos propuestos hasta la fecha suelen ser algoritmos centralizados que tratan de gestionar una arquitectura claramente distribuida, que en escenarios estacionarios pueden mantener un buen rendimiento, pero que no funcionan bien en escenarios donde se dan continuos cambios en la topología de red o en los patrones de tráfico. Es necesario proponer nuevos algoritmos que permitan el enrutamiento de forma distribuida, más adaptables a los cambios, robustos y escalables. Aquí vamos a tratar de hacer una revisión de los algoritmos propuestos inspirados en la naturaleza, particularmente en los comportamientos colectivos de sociedades de insectos. Veremos cómo de una forma descentralizada y auto-organizada, mediante agentes simples e interacciones locales, podemos alcanzar un comportamiento global "inteligente" que cumpla dichas cualidades. Por último proponemos Abira, un algoritmo ACO basado en AntNet-FA que trata de mejorar el rendimiento y la convergencia introduciendo mecanismos de exploración, de feedback negativo como la penalización y de comunicación de de las mejores rutas. Tras realizar una simulación y comparar los resultados con el algoritmo original, vemos que Abira muestra un mejor rendimiento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de este proyecto es presentar un estudio acerca de la evolución a lo largo del tiempo de las diferentes tecnologías de acceso a la red que hacen uso de la planta instalada de par de cobre, llamadas tecnologías xDSL, y prestando especial interés a aquellas más ampliamente implantadas y aquellas que ofrecen velocidades de acceso mayores. El estudio hará un breve repaso a esta evolución desde la tecnología HDSL, la primera en utilizar el bucle de abonado para la transmisión de datos digitales, hasta las más utilizadas actualmente, como el ADSL2+ o el VDSL2. Además, se profundizará en el desarrollo de las tecnologías de acceso a la red de alta velocidad, principalmente asimétricas, haciendo un amplio estudio del funcionamiento de tecnologías desde el ADSL hasta el VDSL2. Se expondrán las diferencias entre todas ellas, atendiendo a las ventajas que cada una ofrece frente a las desarrolladas anteriormente, para lo que se tendrá en cuenta, principalmente, el uso cada vez más eficiente que se hace del espectro de frecuencias disponible, así como la velocidad máxima teórica que se podría alcanzar con cada una de ellas. Existen además, varias técnicas que permiten mejorar el rendimiento de la tecnología VDSL2, se repasaran brevemente, y se dedicará parte del estudio a aquella que permite agrupar varias líneas en una sola conexión, tecnología llamada bonding. Para complementar el estudio se realizarán una serie de simulaciones que permitan reflejar las mejoras que se van produciendo en las distintas tecnologías que se han ido desarrollando a lo largo del tiempo, observando para ello los diferentes puntos que se han tenido en cuenta en la parte teórica y haciendo hincapié en aquellas ventajas que más valorará el usuario final. Con un simulador de bucles de diferentes distancias, y un simulador e inyector de ruido, se simularán distintos escenarios en los que realizaran medidas de la velocidad de sincronismo obtenida utilizando tres tecnologías distintas, ADSL2+, VDSL2 y VDSL2 Bonding. Con los resultados obtenidos, se realizará una valoración de las condiciones en las que se obtienen mejores rendimientos con cada una de ellas. ABSTRACT. The goal of this Project is studying the historical evolution of different access technologies based on twisted pair, also known as xDSL access. I will focus on those technologies widely deployed and those that provide greater access speeds. I will begin with a historical approach, from HDSL, the first technology to use the copper pair to transmit digital data, to the most used nowadays, ADSL2+ and VDSL2. Later on, I will make a deep analysis of broadband access technologies, mainly asymmetric ones, from ADSL to VDSL2. I will explain the differences between them, paying special attention to their advantages in the face of the previous ones. To evaluate these leverages I will mainly consider the frequency spectrum efficiency and the maximum theoretical speed, both upstream and downstream. I will make a brief introduction to various techniques that improve VDSL2 performance. But I will take some more time to explain bonding, a technique that allows link some lines in a unique connection. To finish the project I will make a series of simulations that reflect the improvements achieved with each new technology, keeping in mind all those points reflected in the theoretical part of the project, and focusing on those advantages most valuable to the end user. I will analyze the obtained data to evaluate the best conditions for each technology. Those simulations will be made using a loop simulator and a noise injector to evaluate different scenarios, making rate measurements of three technologies, i.e. ADSL2+, VDSL2 and VDLS2 Bonding.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis doctoral está enmarcada en dos diferentes pero complementarias áreas de investigación: las redes de Publicación/Subscripción y los servicios móviles distribuidos. Con el paso de los años las redes de Publicación/Subscripción han ido ofreciendo el soporte de comunicaciones desacopladas y ligeras que a su vez, han mejorado la distribución de la información en muchos escenarios de aplicación como lo son la ejecución de servicios distribuidos en entornos fijos. Los servicios móviles distribuidos han de ser desplegados en ambientes inalámbricos en donde los dispositivos móviles deben confiar en las mismas características que las redes de Publicación/Subscripción han estado ofreciendo a sus contrapartes fijos. En este contexto, una de las líneas de investigación pendientes consiste en cómo tomar ventaja de estas características, y cómo avanzar hacia nuevas soluciones no existentes con el fin de mejorar la integración entre los dispositivos fijos y móviles, y la ejecución de los servicios móviles distribuidos. En esta tesis doctoral se pretende avanzar en los mecanismos de integración y coordinación de los servicios móviles distribuidos en el contexto de las redes de Publicación/Subscripción. Los objetivos específicos de esta disertación están enfocados en lograr la integración de los sistemas de Publicación/Suscripción fijos y móviles, y la pro-visión de una versión de red de Publicación/Subscripción específica y uniforme que cuente con mecanismos de coordinación que mejoren la ejecución de los servicios móviles distribuidos. Los resultados de esta tesis doctoral están enmarcados en una versión específica de una red de Publicación/Subscripción que integra brokers fijos y móviles, y permite una coordinación totalmente desacoplada y mejorada entre dispositivos móviles que ejecutan fragmentos de servicios. Las contribuciones específicas son las siguientes: una nueva arquitectura de broker móvil que he llamado Rendezvous Mobile broker, un modelo abstracto de servicios móviles distribuidos coordinados sobre una red de Publicación/Subscripción, mejoras en los mecanismos de enrutamiento epidémicos para diseminar eventos de control producidos por fragmentos de servicios, una solución para soportar servicios altamente fragmentados y geográficamente dispersos, y finalmente una solución de interconexión entre dos dominios de red basados en Publicación/Subscripción: una red basada en el protocolo PubSubHubbub y otro en una red basada en el Publish/Subscribe Internet Routing Paradigm (PSIRP). Los experimentos llevados a cabo confirman que la versión específica de red de Pu-blicación/Subscripción propuesta incrementa el rendimiento de la red en términos de tiempo de espera entre nodos finales, permite una coordinación de los servicios móviles distribuidos más resistente a interrupciones y un mejor uso de los recursos de red, y finalmente logra exitosamente, con variaciones mínimas en el rendimiento de las comunicaciones, la interconexión entre estos dominios de Publicación/Subscripción diferentes. ABSTRACT This dissertation is made up of two different but complementary research areas: Publish/Subscribe networks and mobile distributed services. Over the years, Publish/Subscribe networks have been offering the lightweight and decoupled communication characteristics to improve the information distribution in several application domains such as the execution of distributed services. Mobile distributed services are set to be deployed in wireless environments where mobile devices must rely on the same features Publish/Subscribe networks can offer; so one of the pending research directions consists of how to take advantage of these features and further advance to-wards new un-existing solutions that enhance the integration between mobile and fixed systems and the execution of mobile distributed services. This dissertation seeks to advance the integration and coordination mechanisms of mobile distributed services in the context of Publish/Subscribe networks. The specific objectives aim to enable the integration of mobile and fixed Publish/Subscribe systems and provide a uniform and specific version of a Publish/Subscribe network with new coordination mechanisms that improve the execution of mobile distributed services. The results of this dissertation are enclosed in one specific version of a Publish/Subscribe network that integrates mobile and fixed brokers and coordinates the execution of mobile distributed services. These specific contributions are: a new architecture of a mobile broker I called Rendezvous Mobile Broker, an abstract model for coordinating mobile distributed services executions using a Publish/Subscribe net-work, new gossip routing solutions to disseminate events of services, mechanisms to support highly partitioned and geographically dispersed services and finally, an inter-networking solution between two Publish/Subscribe domains: a PubSubHubbub-based network and the Publish/Subscribe Internet Routing Paradigm (PSIRP)-based network. The experimental efforts confirm that the specific version of the Publish/Subscribe proposed in this dissertation improves the performance of the overall network in terms of end-to-end delay, enables a more resilience execution of mobile distributed services, a better usage of the existing network resources, and finally successfully achieves, with minor variations in the network performance, the internetworking between two different Publish/Subscribe domains.