999 resultados para Calidad Total - Normas técnicas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

- Resumen La hipótesis que anima esta tesis doctoral es que algunas de las características del entorno urbano, en particular las que describen la accesibilidad de su red de espacio público, podrían estar relacionadas con la proporción de viajes a pie o reparto modal, que tiene cada zona o barrio de Madrid. Uno de los puntos de partida de dicha hipótesis que el entorno urbano tiene una mayor influencia sobre los viaje a pie que en sobre otros modos de transporte, por ejemplo que en los viajes de bicicleta o en transporte público; y es que parece razonable suponer que estos últimos van a estar más condicionadas por ejemplo por la disponibilidad de vías ciclistas, en el primer caso, o por la existencia de un servicio fiable y de calidad, en el segundo. Otra de las motivaciones del trabajo es que la investigación en este campo de la accesibilidad del espacio público, en concreto la denominada “Space Syntax”, ha probado en repetidas ocasiones la influencia de la red de espacio público en cómo se distribuye la intensidad del tráfico peatonal por la trama urbana, pero no se han encontrado referencias de la influencia de dicho elemento sobre el reparto modal. De acuerdo con la hipótesis y con otros trabajos anteriores se propone una metodología basada en el análisis empírico y cuantitativo. Su objetivo es comprobar si la red de espacio público, independientemente de otras variables como los usos del suelo, incluso de las variables de ajenas entorno no construido, como las socioeconómicas, está o no relacionada estadísticamente con la proporción de peatones viajes en las zonas urbanas. Las técnicas estadísticas se utilizan para comprobar sistemáticamente la asociación de las variables del entorno urbano, denominadas variables independientes, con el porcentaje de viajes a pie, la variable dependiente. En términos generales, la metodología es similar a la usada en otros trabajos en este campo como los de CERVERÓ y KOCKLEMAN (1997), CERVERÓ y DUNCAN (2003), o para los que se utilizan principalmente en la revisión general de TRB (2005) o, más recientemente, en ZEGRAS (2006) o CHATMAN (2009). Otras opciones metodológicas, como los métodos de preferencias declaradas (ver LOUVIERE, HENSHER y SWAIT, 2000) o el análisis basado en agentes (PENN & TURNER, 2004) fueron descartados, debido a una serie de razones, demasiado extensas para ser descritas aquí. El caso de estudio utilizado es la zona metropolitana de Madrid, abarcándola hasta la M-50, es decir en su mayor parte, con un tamaño aproximado de 31x34 Km y una población de 4.132.820 habitantes (aproximadamente el 80% de la población de la región). Las principales fuentes de datos son la Encuesta Domiciliaria de Movilidad de 2004 (EDM04), del Consorcio Regional de Transportes de Madrid que es la última disponible (muestra: > 35.000 familias,> 95.000 personas), y un modelo espacial del área metropolitana, integrando el modelo para calcular los índices de Space Syntax y un Sistema de Información Geográfica (SIG). La unidad de análisis, en este caso las unidades espaciales, son las zonas de transporte (con una población media de 7.063 personas) y los barrios (con una población media de 26.466 personas). Las variables del entorno urbano son claramente el centro del estudio. Un total de 20 índices (de 21) se seleccionan de entre los más relevantes encontrados en la revisión de la producción científica en este campo siendo que, al mismo tiempo, fueran accesibles. Nueve de ellos se utilizan para describir las características de los usos del suelo, mientras que otros once se usan para describir la red de espacios públicos. Estos últimos incluyen las variables de accesibilidad configuracional, que son, como se desprende de su título, el centro del estudio propuesto. La accesibilidad configuracional es un tipo especial de accesibilidad que se basa en la configuración de la trama urbana, según esta fue definida por HILLIER (1996), el autor de referencia dentro de esta línea de investigación de Space Syntax. Además se incluyen otras variables de la red de espacio público más habituales en los estudios de movilidad, y que aquí se denominan características geométricas de los elementos de la red, tales como su longitud, tipo de intersección, conectividad, etc. Por último se incluye además una variable socioeconómica, es decir ajena al entorno urbano, para evaluar la influencia de los factores externos, pues son varios los que pueden tener un impacto en la decisión de caminar (edad, género, nivel de estudios, ingresos, tasa de motorización, etc.). La asociación entre las variables se han establecido usando análisis de correlación (bivariante) y modelos de análisis multivariante. Las primeras se calculan entre por pares entre cada una de las 21 variables independientes y la dependiente, el porcentaje de viajes a pie. En cuanto a los segundos, se han realizado tres tipos de estudios: modelo multivariante general lineal, modelo multivariante general curvilíneo y análisis discriminante. Todos ellos son capaces de generar modelos de asociación entre diversas variables, pudiéndose de esta manera evaluar con bastante precisión en qué medida cada modelo reproduce el comportamiento de la variable dependiente, y además, el peso o influencia de cada variable en el modelo respecto a las otras. Los resultados fundamentales del estudio se expresan en dos modelos finales alternativos, que demuestran tener una significativa asociación con el porcentaje de viajes a pie (R2 = 0,6789, p <0,0001), al explicar las dos terceras partes de su variabilidad. En ellos, y en general en todo el estudio realizado, se da una influencia constante de tres índices en particular, que quedan como los principales. Dos de ellos, de acuerdo con muchos de los estudios previos, corresponden a la densidad y la mezcla de usos del suelo. Pero lo más novedoso de los resultados obtenidos es que el tercero es una medida de la accesibilidad de la red de espacio público, algo de lo que no había referencias hasta ahora. Pero, ¿cuál es la definición precisa y el peso relativo de cada uno en el modelo, es decir, en la variable independiente? El de mayor peso en la mayor parte de los análisis realizados es el índice de densidad total (n º residentes + n º puestos de trabajo + n º alumnos / Ha). Es decir, una densidad no sólo de población, sino que incluye algunas de las actividades más importantes que pueden darse una zona para generar movilidad a pie. El segundo que mayor peso adquiere, llegando a ser el primero en alguno de los análisis estadísticos efecturados, es el índice de accesibuilidad configuracional denominado integración de radio 5. Se trata de una medida de la accesibilidad de la zona, de su centralidad, a la escala de, más un menor, un distrito o comarca. En cuanto al tercero, obtiene una importancia bastante menor que los anteriores, y es que representa la mezcla de usos. En concreto es una medida del equilibrio entre los comercios especializados de venta al por menor y el número de residentes (n º de tiendas especializadas en alimentación, bebidas y tabaco / n º de habitantes). Por lo tanto, estos resultados confirman buena parte de los de estudios anteriores, especialmente los relativas a los usos del suelo, pero al mismo tiempo, apuntan a que la red de espacio público podría tener una influir mayor de la comprobada hasta ahora en la proporción de peatones sobre el resto de modos de transportes. Las razones de por qué esto puede ser así, se discuten ampliamente en las conclusiones. Finalmente se puede precisar que dicha conclusión principal se refiere a viajes de una sola etapa (no multimodales) que se dan en los barrios y zonas del área metropolitana de Madrid. Por supuesto, esta conclusión tiene en la actualidad, una validez limitada, ya que es el resultado de un solo caso — Abstract The research hypothesis for this Ph.D. Thesis is that some characteristics of the built environment, particularly those describing the accessibility of the public space network, could be associated with the proportion of pedestrians in all trips (modal split), found in the different parts of a city. The underlying idea is that walking trips are more sensitive to built environment than those by other transport modes, such as for example those by bicycle or by public transport, which could be more conditioned by, e.g. infrastructure availability or service frequency and quality. On the other hand, it has to be noted that the previously research on this field, in particular within Space Syntax’s where this study can be referred, have tested similar hypothesis using pedestrian volumes as the dependent variable, but never against modal split. According to such hypothesis, research methodology is based primarily on empirical quantitative analysis, and it is meant to be able to assess whether public space network, no matter other built environment and non-built environment variables, could have a relationship with the proportion of pedestrian trips in urban areas. Statistical techniques are used to check the association of independent variables with the percentage of walking in all trips, the dependent one. Broadly speaking this methodology is similar to that of previous studies in the field such as CERVERO&KOCKLEMAN (1997), CERVERO & DUNCAN (2003), or to those used mainly in the general review of T.R.B. (2005) or, more recently in ZEGRAS (2006) or CHATMAN (2009). Other methodological options such as stated choice methods (see LOUVIERE, HENSHER & SWAIT, 2000) or agent based analysis (PENN & TURNER, 2004), were discarded, due to a number of reasons, too long to be described here. The case study is not the entire Madrid’s metropolitan area, but almost (4.132.820 inhabitants, about 80% of region´s population). Main data sources are the Regional Mobility Home Based Survey 2004 (EDM04), which is the last available (sample: >35.000 families, > 95.000 individuals), and a spatial model of the metropolitan area, developed using Space Syntax and G.I.S. techniques. The analysis unit, in this case spatial units, are both transport zones (mean population = 7.063) and neighborhoods (mean population = 26.466). The variables of the built environment are clearly the core of the study. A total of 20 (out of 21) are selected from among those found in the literature while, at the same time, being accessible. Nine out of them are used to describe land use characteristics while another eleven describe the network of public spaces. Latter ones include configurational accessibility or Space Syntax variables. This is a particular sort of accessibility related with the concept of configuration, by HILLIER (1996), one of the main authors of Space Syntax, But it also include more customary variables used in mobility research to describe the urban design or spatial structure (here public space network), which here are called geometric characteristics of the such as its length, type of intersection, conectivity, density, etc. Finally a single socioeconomic variable was included in order to assess the influence non built environment factors that also may have an impact on walking (age, income, motorization rate, etc.). The association among variables is worked out using bi-variate correlation analysis and multivariate-analysis. Correlations are calculated among the 21 independent variables and the dependent one, the percentage of walking trips. Then, three types of multi-variate studies are run: general linear, curvilinear and discriminant multi-variate analysis. The latter are fully capable of generating complex association models among several variables, assessing quite precisely to what extent each model reproduces the behavior of the dependent variable, and also the weight or influence of each variable in the model. This study’s results show a consistent influence of three particular indexes in the two final alternative models of the multi-variate study (best, R2=0,6789, p<0,0000). Not surprisingly, two of them correspond to density and mix of land uses. But perhaps more interesting is that the third one is a measure of the accessibility of the public space network, a variable less important in the literature up to now. Additional precisions about them and their relative weight could also be of some interest. The density index is not only about population but includes most important activities in an area (nº residents + nº jobs+ nº students/Ha). The configurational index (radius 5 integration) is a measure of the accessibility of the area, i.e. centrality, at the scale of, more a less, a district. Regarding the mix of land uses index, this one is a measure of the balance between retail, in fact local basic retail, and the number of residents (nº of convenience shops / nº of residents). Referring to their weights, configurational index (radius 5 integration) gets the higher standardized coefficient of the final equation. However, in the final equations, there are a higher number of indexes coming from the density or land use mix categories than from public space network enter. Therefore, these findings seem to support part of the field’s knowledge, especially those concerning land uses, but at the same time they seem to bring in the idea that the configuration of the urban grid could have an influence in the proportion of walkers (as a part of total trips on any transport mode) that do single journey trips in the neighborhoods of Madrid, Spain. Of course this conclusion has, at present, a limited validity since it’s the result of a single case. The reasons of why this can be so, are discussed in the last part of the thesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las propiedades de los materiales pueden definirse como aquellas que se relacionan con el comportamiento de los mismos cuando se les aplican unas fuerzas. Un creciente interés por las propiedades mecánicas de frutos y hortalizas ha llevado a un gran desarrollo de las investigaciones con el objetivo de determinar estas propiedades. El estudio de las propiedades mecánicas de los productos hortofrutícolas puede realizarse bajo diferentes aspectos: determinación del momento óptimo de recolección, evaluación de la lectura, susceptibilidad a los daños mecánicos durante la recolección, el transporte y la manipulación, facilidad para el procesado y otros. Todos ellos son aspectos que intervienen de forma muy importante en la calidad de los productos, habiendo de entender como tal no solamente el sabor, el aspecto externo, la textura interna y resistencia a la masticación, etc., sino también otras importantes características, como la aptitud para efectuar la recolección y demás operaciones de transporte y transformación sin que haya que registrar pérdidas por falta de adecuación; de los frutos a las manipulaciones a que se les someten durante todo el proceso. Hay pocos métodos y técnicas ampliamente generalizados para determinar las propiedades mecánicas que afectan a la calidad de la frute}, por lo que los resultados obtenidos por un investigador rara vez pueden Compararse con los obtenidos por otro. Algunos ensayos de tipo estático para la determinación de la textura (penetración Magness-Taylor o compresión de probetas) han conseguido Generalizarse. Sin embargo, en el aspecto de las cargas rápidas o impactos, no existen métodos de ensayo bien conocidos y generalizados, siendo precisamente los impactos o golees una de las causas principales de las pérdidas de frutas por daños. El impacto se diferencia de una carga estática en el hecho de que las fuerzas creadas en la colisión se aplican y se retiran en un tiempo muy pequeño, del orden de 10 milésimas de segundo que es el «tiempo o duración del impacto». Varios investigadores han descrito el impacto como un fenómeno elasto-plástico, lo que supone que el fruto se comporta parcialmente como elástico y parcialmente como plástico; este comportamiento está ligado a la constitución del tejido: células de paredes resistentes, fundamentalmente elásticas, y citoplasma y vacuolas de naturaleza plástica o viscosa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A pesar los graves condicionamientos socio-económicos y energéticos, se observa una demanda creciente de medios mecánicos y de sofisticación de los mismos, a nivel mundial. Los años 60 suponen un importante empuje en el desarrollo de medios mecánicos, siendo el momento de despegue de la U.C. Davis con el Dept. of Agricultural Engineering. En este momento se establece la llegada de Ingenieros y Científicos agrarios españoles a California. Los programas de colaboración desde aquel momento hasta hoy impulsan varios de los avances desde nuestro punto de vista más importantes en la mecanización de la agricultura española, recolección de frutos con vibradores; sistema mecanizado integrado de producción de lechugas, siembra y recolección mecánica del tomate para industria y producción y utilización de biogás a partir de residuos agrícolas. Otros temas más recientes tratan de dar respuesta a nuevos problemas como: sistemas más económicos y apropiados de laboreo del suelo, evaluación de la calidad de frutas y hortalizas, recolección y manejo no destructivos de frutos. Se incorpora cada vez más una visión sistemática e integrada de la mecanización agraria. La interacción entre los materiales biológicos, los medios mecánicos y el hombre es apreciada como un todo, el cual tiende a desarrollarse de forma unificada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El sistema de gestión de la calidad (SGC)ha alcanzado una influencia relevante sobre el desempeño organizacional (DO). Esta relación podría ser potenciada por la acción de la gestión del conocimiento (GC) y la satisfacción del cliente interno (SCI) en la Industria Petrolera en Venezuela (IPV). Este estudio analiza los efectos que la GC y la SCI tienen sobre la relación SGC-DO. Su diseño es correlacional-causal, no experimental, transversal y expost-facto. La población objetivo fue de 369 trabajadores petroleros del área de la calidad. A la muestra probabilística se aplicó un cuestionario, validado a través de los métodos de expertos y prueba piloto, alcanzando un alfa de Cronbach de 0,942. Los datos fueron procesados con técnicas multivariantes, utilizando el SPSS v.19 y el SAS v.9.2. Los resultados indican que la influencia del SGC sobre el DO es favorecida por la documentación del SGC, objetivos medibles y coherentes con la política de calidad, sistemas de información claros, entendibles y armónicos. Asimismo, adquisición del cocimiento a través de acciones de formación del talento humano y la renovación de equipos y softwares. Resultado coherente con el progreso incipiente de la implantación del SGC en la IPV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la presente contribución se hace una revisión somera de los principales sensores, tanto de las tecnologías subyacentes como de los equipos utilizables, que sirven para evaluar la calidad de frutas y hortalizas de forma no-invasiva. Se distingue entre tecnologías asentadas, viables técnicamente, o con viabilidad comercial, y a continuación de introduce brevemente nuevas técnicas en desarrollo que pueden ser viables para en un plazo previsible. Se describe, desde una aproximación general de aplicabilidad, los principios de los distintos sensores, y se analiza sus capacidades más apropiadas para distintos casos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La inducción de la muda en gallinas ponedoras mediante la supresión total del alimento sólido está prohibida en la UE por perjudicar el bienestar de la gallina y su sistema inmunitario. Por ello, es necesario estudiar alternativas (sin ayuno) que logren una adecuada pérdida de peso vivo para que la puesta cese rápidamente, su tract o reproductor se “rejuvenezca”, y la producción de huevos se reanude rápida y satisfactoriamente, con una mínima mortalidad. El objetivo del trabajo fue determinar la eficacia con que tres alimentos (salvado de trigo, cebada y un pienso comercial suministrado en cantidad restringida) podían inducir la muda en ponedoras de dos estirpes genéticas, y analizar comparativamente los resultados cuantitativos y cualitativos obtenidos, tanto por estirpe como por tratamiento. La muda se indujo a 216 gallinas de una estirpe ligera y a 216 gallinas de estirpe semipesada. Las gallinas se alojaron en bloques de 3 jaulas con 4 aves por jaula, con 18 réplicas por estirpe y 12 réplicas por tratamiento. El salvado y la cebada causaron el cese de la puesta más rápidamente (dí as 7 y 9 desde el inicio de la muda; respectivamente) que el pienso restringido (día14) (P<0,001). La producción de huevos durante la muda fue mayor con pienso restringido ( P < 0,001) y también mayor en las semipesadas (28,1%) que en las ligeras ( 18,9%). Tras la muda, las gallinas ligeras tuvieron mayor producción (73,1%) que las semipesadas (70,8%) , aunque un peso medio del huevo inferior (69,8 vs 70,7 g). El salvado dio lugar a una mayor IP (74,6%) pero el peso del huevo fue inferior (69,7 g). Todos los parámetros cualitativos analizados presentaron diferencias significativas entre gallinas ligeras y semipesadas, de uno u otro signo. En cambio, el alimento utilizado para inducir la muda no influyó en la calidad del huevo tras la muda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trigo blando (Triticum aestivum ssp vulgare L., AABBDD, 2n=6x=42) presenta propiedades viscoélasticas únicas debidas a la presencia en la harina de las prolaminas: gluteninas y gliadinas. Ambos tipos de proteínas forman parte de la red de gluten. Basándose en la movilidad en SDS-PAGE, las gluteninas se clasifican en dos grupos: gluteninas de alto peso molecular (HMW-GS) y gluteninas de bajo peso molecular (LMW-GS). Los genes que codifican para las HMW-GS se encuentran en tres loci del grupo 1 de cromosomas: Glu-A1, Glu-B1 y Glu-D1. Cada locus codifica para uno o dos polipéptidos o subunidades. La variación alélica de las HMW-GS es el principal determinante de de la calidad harino-panadera y ha sido ampliamente estudiado tanto a nivel de proteína como de ADN. El conocimiento de estas proteínas ha contribuido sustancialmente al progreso de los programas de mejora para la calidad del trigo. Comparadas con las HMW-GS, las LMW-GS forman una familia proteica mucho más compleja. La mayoría de los genes LMW se localizan en el grupo 1 de cromosomas en tres loci: Glu-A3, Glu-B3 y Glu-D3 que se encuentran estrechamente ligados a los loci que codifican para gliadinas. El número de copias de estos genes ha sido estimado entre 10-40 en trigo hexaploide, pero el número exacto aún se desconoce debido a la ausencia de un método eficiente para diferenciar los miembros de esta familia multigénica. La nomenclatura de los alelos LMW-GS por electroforesis convencional es complicada, y diferentes autores asignan distintos alelos a la misma variedad lo que dificulta aún más el estudio de esta compleja familia. El uso de marcadores moleculares para la discriminación de genes LMW, aunque es una tarea dificil, puede ser muy útil para los programas de mejora. El objetivo de este trabajo ha sido profundizar en la relación entre las gluteninas y la calidad panadera y desarrollar marcadores moleculares que permitan ayudar en la correcta clasificación de HMW-GS y LMW-GS. Se han obtenido dos poblaciones de líneas avanzadas F4:6 a partir de los cruzamientos entre las variedades ‘Tigre’ x ‘Gazul’ y ‘Fiel’ x ‘Taber’, seleccionándose para los análisis de calidad las líneas homogéneas para HMW-GS, LMW-GS y gliadinas. La determinación alélica de HMW-GS se llevó a cabo por SDS-PAGE, y se complementó con análisis moleculares, desarrollándose un nuevo marcador de PCR para diferenciar entre las subunidades Bx7 y Bx7*del locus Glu-B1. Resumen 2 La determinación alélica para LMW-GS se llevó a cabo mediante SDS-PAGE siguiendo distintas nomenclaturas y utilizando variedades testigo para cada alelo. El resultado no fue concluyente para el locus Glu-B3, así que se recurrió a marcadores moleculares. El ADN de los parentales y de los testigos se amplificó usando cebadores diseñados en regiones conservadas de los genes LMW y fue posteriormente analizado mediante electroforesis capilar. Los patrones de amplificación obtenidos fueron comparados entre las distintas muestras y permitieron establecer una relación con los alelos de LMW-GS. Con este método se pudo aclarar la determinación alélica de este locus para los cuatro parentales La calidad de la harina fue testada mediante porcentaje de contenido en proteína, prueba de sedimentación (SDSS) y alveógrafo de Chopin (parámetros P, L, P/L y W). Los valores fueron analizados en relación a la composición en gluteninas. Las líneas del cruzamiento ‘Fiel’ x ‘Taber’ mostraron una clara influencia del locus Glu-A3 en la variación de los valores de SDSS. Las líneas que llevaban el nuevo alelo Glu-A3b’ presentaron valores significativamente mayores que los de las líneas con el alelo Glu-A3f. En las líneas procedentes del cruzamiento ‘Tigre ’x ‘Gazul’, los loci Glu-B1 y Glu-B3 loci mostraron ambos influencia en los parámetros de calidad. Los resultados indicaron que: para los valores de SDSS y P, las líneas con las HMW-GS Bx7OE+By8 fueron significativamente mejores que las líneas con Bx17+By18; y las líneas que llevaban el alelo Glu-B3ac presentaban valores de P significativamente superiores que las líneas con el alelo Glu-B3ad y significativamente menores para los valores de L . El análisis de los valores de calidad en relación a los fragmentos LMW amplificados, reveló un efecto significativo entre dos fragmentos (2-616 y 2-636) con los valores de P. La presencia del fragmento 2-636 estaba asociada a valores de P mayores. Estos fragmentos fueron clonados y secuenciados, confirmándose que correspondían a genes del locus Glu-B3. El estudio de la secuencia reveló que la diferencia entre ambos se hallaba en algunos SNPs y en una deleción de 21 nucleótidos que en la proteína correspondería a un InDel de un heptapéptido en la región repetida de la proteína. En este trabajo, la utilización de líneas que difieren en el locus Glu-B3 ha permitido el análisis de la influencia de este locus (el peor caracterizado hasta la fecha) en la calidad panadera. Además, se ha validado el uso de marcadores moleculares en la determinación alélica de las LMW-GS y su relación con la calidad panadera. Summary 3 Bread wheat (Triticum aestivum ssp vulgare L., AABBDD, 2n=6x=42) flour has unique dough viscoelastic properties conferred by prolamins: glutenins and gliadins. Both types of proteins are cross-linked to form gluten polymers. On the basis of their mobility in SDS-PAGE, glutenins can be classified in two groups: high molecular weight glutenins (HMW-GS) and low molecular weight glutenins (LMW-GS). Genes encoding HMW-GS are located on group 1 chromosomes in three loci: Glu-A1, Glu-B1 and Glu-D1, each one encoding two polypeptides, named subunits. Allelic variation of HMW-GS is the most important determinant for bread making quality, and has been exhaustively studied at protein and DNA level. The knowledge of these proteins has substantially contributed to genetic improvement of bread quality in breeding programs. Compared to HMW-GS, LMW-GS are a much more complex family. Most genes encoded LMW-GS are located on group 1 chromosomes. Glu-A3, Glu-B3 and Glu-D3 loci are closely linked to the gliadin loci. The total gene copy number has been estimated to vary from 10–40 in hexaploid wheat. However, the exact copy number of LMW-GS genes is still unknown, mostly due to lack of efficient methods to distinguish members of this multigene family. Nomenclature of LMW-GS alleles is also unclear, and different authors can assign different alleles to the same variety increasing confusion in the study of this complex family. The use of molecular markers for the discrimination of LMW-GS genes might be very useful in breeding programs, but their wide application is not easy. The objective of this work is to gain insight into the relationship between glutenins and bread quality, and the developing of molecular markers that help in the allele classification of HMW-GS and LMW-GS. Two populations of advanced lines F4:6 were obtained from the cross ‘Tigre’ x ‘Gazul’ and ‘Fiel’ x ‘Taber’. Lines homogeneous for HMW-GS, LMW-GS and gliadins pattern were selected for quality analysis. The allele classification of HMW-GS was performed by SDS-PAGE, and then complemented by PCR analysis. A new PCR marker was developed to undoubtedly differentiate between two similar subunits from Glu-B1 locus, Bx7 and Bx7*. The allele classification of LMW-GS was initially performed by SDS-PAGE following different established nomenclatures and using standard varieties. The results were not completely concluding for Glu-B3 locus, so a molecular marker system was applied. DNA from parental lines and standard varieties was amplified using primers designed in conserved domains of LMW genes and analyzed by capillary electrophoresis. The pattern of amplification products obtained was compared among samples and related to the protein allele classification. It was possible to establish a correspondence between specific amplification products and almost all LMW alleles analyzed. With this method, the allele classification of the four parental lines was clarified. Flour quality of F4:6 advanced lines were tested by protein content, sedimentation test (SDSS) and alveograph (P, L, P/L and W). The values were analyzed in relation to the lines prolamin composition. In the ‘Fiel’ x ‘Taber’ population, Glu-A3 locus showed an influence in SDSS values. Lines carrying new allele Glu-A3b’, presented a significantly higher SDSS value than lines with Glu-A3f allele. In the ‘Tigre ’x ‘Gazul’ population, the Glu-B1 and Glu-B3 loci also showed an effect in quality parameters, in SDSS, and P and L values. Results indicated that: for SDSS and P, lines with Bx7OE+By8 were significantly better than lines with Bx17+By18; lines carrying Glu-B3ac allele had a significantly higher P values than Glu-B3ad allele values. lines with and lower L The analysis of quality parameters and amplified LMW fragments revealed a significant influence of two peaks (2-616 y 2-636) in P values. The presence of 2-636 peak gave higher P values than 2-616. These fragments had been cloned and sequenced and identified as Glu-B3 genes. The sequence analysis revealed that the molecular difference between them was some SNPs and a small deletion of 21 nucleotides that in the protein would produce an InDel of a heptapeptide in the repetitive region. In this work, the analysis of two crosses with differences in Glu-3 composition has made possible to study the influence of LMG-GS in quality parameters. Specifically, the influence of Glu-B3, the most interesting and less studied loci has been possible. The results have shown that Glu-B3 allele composition influences the alveograph parameter P (tenacity). The existence of different molecular variants of Glu-B3 alleles have been assessed by using a molecular marker method. This work supports the use of molecular approaches in the study of the very complex LMW-GS family, and validates their application in the analysis of advanced recombinant lines for quality studies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se condujeron cuatro experimentos unifactoriales en condiciones de campo en áreas agrícolas de la Universidad de Granma, en el período comprendido de septiembre/2007 a enero/2010 para determinar el efecto de la aplicación de micorrizas arbusculares, Azotobacter chroococcum y ácidos húmicos sobre la productividad y la calidad poscosecha del tomate (Solanum lycopersicum L.) cv. “Vyta”, sobre un suelo de tipo Fluvisol. La aplicación simple y combinada de las micorrizas arbusculares, el Azotobacter chroococcum y los ácidos húmicos mostró un efecto positivo sobre la productividad de la variedad de tomate estudiada, al obtenerse incrementos significativos de este indicador en comparación con el control (sin aplicación), lográndose los mejores resultados con la combinación Glomus fasciculatum (0,3 kg m-2) + Azotobacter chroococcum (30 L ha-1) + ácidos húmicos (500 mg L-1) con valores de 54,57 t ha-1. Se comprobó además, que los tratamientos con estos bioproductos presentaron contenidos de sólidos solubles totales (SST), carbohidratos solubles totales (CST), vitamina C, porcentaje de materia seca (PMS), firmeza, longitud y anchura de los frutos superiores al control (sin aplicación). Las plantas controles (sin aplicación) significativamente incrementaron la acidez titulable (contenido de ácido cítrico) y la pérdida de peso y redujeron el pH de los frutos del tomate. Los análisis de correlación realizados revelan que existieron correlaciones positivas y significativas entre el contenido de vitamina C, materia seca, sólidos solubles totales, carbohidratos solubles totales, y el pH de los frutos, mientras que la acidez titulable presentó correlaciones negativas y significativas con todas las variables mencionadas anteriormente. Se encontró a su vez un efecto sinérgico en las plantas con la aplicación combinada de estos productos con respecto al control (sin aplicación), expresado en los mayores valores de los parámetros micorrízicos estudiados. ABSTRACT Four unifactorial experiments under field conditions in an agricultural area belonging to the University of Granma from September/2007 to January/2010 aiming to evaluate the effect of arbuscular mycorrhizas, Azotobacter and humic acids on tomato (Solanum lycopersicum L) cv. “Vyta” crop yield and postharvest quality in a Typic Fluvent soil were conducted. The simple and mixed application of arbuscular mycorrhizas, Azotobacter chroococcum and humic acids showed a positive effect on yield and internal postharvest parameters evaluated for the studied tomato variety, achieving significant increases with respect to the control treatment ones. The best results related to crop yield were achieved by combining Glomus fasciculatum (0.3 kg m-2) + Azotobacter chroococcum (30 L ha-1) + humic acids (500 mg L-1) that lead to 54.57 t ha-1. In addition, it was also demonstrated that the treatments under effect of biofertilizers and biostimulants resulted in higher total soluble solids (TSS), total soluble carbohydrates (TSC), vitamin C, dry matter contents (DMC), firmness, length and width of the fruits than the control treatment. The control plants showed significantly increased titrable acidity (citric acid content) and weight loss and reduced pH on the tomato fruits. The conducted correlation analyses revealed that there were significant and positive correlations between vitamin C content, dry matter, total soluble solids, total soluble carbohydrates, and pH of the fruit, while titratable acidity showed significant negative correlations with all variables mentioned above. At the same time, a synergic effect by mixed utilization of these biological products on tomato plants, with respect to control treatment (non-treated), was found regarding the increase of studied mycorrhizal parameters.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proceso de soldadura por láser desarrollado en los últimos años ha puesto de manifiesto las posibilidades de aplicación de esta tecnología en diferentes sectores productivos, principalmente en la industria automovilística, en la cual se han demostrado sus ventajas en términos de productividad, eficiencia y calidad. El uso de la tecnología láser, ya sea híbrida o pura, reduce el input térmico al limitar la zona afectada por el calor, sin crear deformaciones y, por tanto, disminuye los re-trabajos post-soldadura necesarios para eliminarlas. Asimismo, se aumenta la velocidad de soldadura, incrementando la productividad y calidad de las uniones. En la última década, el uso de láseres híbridos, (láser + arco) de gran potencia de Neodimio YAG, (Nd: YAG) ha sido cada vez más importante. La instalación de este tipo de fuentes de láser sólido de gran potencia ha sido posible en construcción naval debido a sus ventajas con respecto a las instalaciones de láser de C02 existentes en los astilleros que actualmente utilizan esta tecnología. Los láseres de C02 están caracterizados por su gran potencia y la transmisión del haz a través de espejos. En el caso de las fuentes de Nd:YAG, debido a la longitud de onda a la cual se genera el haz láser, su transmisión pueden ser realizada a través de fibra óptica , haciendo posible la utilización del cabezal láser a gran distancia de la fuente, aparte de la alternativa de integrar el cabezal en unidades robotizadas. El proceso láser distribuye el calor aportado de manera uniforme. Las características mecánicas de dichas uniones ponen de manifiesto la adecuación de la soldadura por láser para su uso en construcción naval, cumpliendo los requerimientos exigidos por las Sociedades de Clasificación. La eficiencia energética de los láseres de C02, con porcentajes superiores al 20%, aparte de las ya estudiadas técnicas de su instalación constituyen las razones por las cuales este tipo de láser es el más usado en el ámbito industrial. El láser de gran potencia de Nd: YAG está presente en el mercado desde hace poco tiempo, y por tanto, su precio es relativamente mayor que el de C02, siendo sus costes de mantenimiento, tanto de lámparas como de diodos necesarios para el bombeo del sólido, igualmente mayores que en el caso del C02. En cambio, el efecto de absorción de parte de la energía en el plasma generado durante el proceso no se produce en el caso del láser de Nd: YAG, utilizando parte de esa energía en estabilizar el arco, siendo necesaria menos potencia de la fuente, reduciendo el coste de la inversión. En función de la aplicación industrial, se deberá realizar el análisis de viabilidad económica correspondiente. Dependiendo de la potencia de la fuente y del tipo de láser utilizado, y por tanto de la longitud de onda a la que se propaga la radiación electromagnética, pueden existen riesgos para la salud. El láser de neodimio se propaga en una longitud de onda, relativamente cercana al rango visible, en la cual se pueden producir daños en los ojos de los operadores. Se deberán establecer las medidas preventivas para evitar los riesgos a los que están expuestos dichos operadores en la utilización de este tipo de energía. La utilización del láser de neodimio: YAG ofrece posibilidades de utilización en construcción naval económicamente rentables, debido su productividad y las buenas características mecánicas de las uniones. Abstract The laser welding process development of the last years shows broad application possibilities in many sectors of industry, mostly in automobile production. The advantages of the laser beam process produce higher productivity, increasing the quality and thermal efficiency. Laser technology, arc-hybrid or pure laser welding, reduces thermal input and thus a smaller heat-affected zone at the work piece. This means less weldment distortion which reduces the amount of subsequent post-weld straightening work that needs to be done. A higher welding speed is achieved by use of the arc and the laser beam, increasing productivity and quality of the joining process. In the last decade use of hybrid technology (laser-GMA hybrid method) with high power sources Nd:YAG lasers, gained in importance. The installation of this type of higher power solid state laser is possible in shipbuilding industrial applications due to its advantages compare with the C02 laser sources installed in the shipyards which use this technology. C02 lasers are characterised by high power output and its beam guidance is via inelastic system of mirrors. In the case of Nd:YAG laser, due to its wavelength, the laser beam can be led by means of a flexible optical fibre even across large distances, which allows three dimensional welding jobs by using of robots. Laser beam welding is a process during which the heat is transferred to the welded material uniformly and the features of the process fulfilled the requirements by Classification Societies. So that, its application to the shipbuilding industry should be possible. The high quantum efficiency of C02 laser, which enabled efficiency factors up to 20%, and relative simple technical possibilities of implementation are the reasons for the fact that it is the most important laser in industrial material machining. High power Nd: YAG laser is established on the market since short time, so that its price is relatively high compared with the C02 laser source and its maintenance cost, lamp or diode pumped solid state laser, is also higher than in the case of C02 lasers. Nevertheless effect of plasma shielding does not exist with Nd:YAG lasers, so that for the gas-shielding welding process the optimal gases can be used regarding arc stability, thus power source are saved and the costs can be optimised. Each industrial application carried out needs its cost efficiency analysis. Depending on the power output and laser type, the dangerousness of reflected irradiation, which even in some meters distance, affects for the healthy operators. For the YAG laser process safety arrangements must be set up in order to avoid the laser radiation being absorbed by the human eye. Due to its wavelength of radiation, being relatively close to the visible range, severe damage to the retina of the eye is possible if sufficient precautions are not taken. Safety aspects are of vital importance to be able to shield the operator as well as other personal. The use of Nd:YAG lasers offers interesting and economically attractive applications in shipbuilding industry. Higher joining rates are possible, and very good mechanical/technological parameters can be achieved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La correcta validación y evaluación de cualquier algoritmo de registro incluido en la línea de procesamiento de cualquier aplicación clínica, es fundamental para asegurar la calidad y fiabilidad de los resultados obtenidos con ellas. Ambas características son imprescindibles, además, cuando dicha aplicación se encuentra en el área de la planificación quirúrgica, en la que las decisiones médicas influyen claramente en la invasividad sobre el paciente. El registro de imágenes es un proceso de alineamiento entre dos o más de éstas de forma que las características comunes se encuentren en el mismo punto del espacio. Este proceso, por tanto, se hace imprescindible en aquellas aplicaciones en las que existe la necesidad de combinar la información disponible en diferentes modalidades (fusión de imágenes) o bien la comparación de imágenes intra-modalidad tomadas de diferentes pacientes o en diferentes momentos. En el presente Trabajo Fin de Máster, se desarrolla un conjunto de herramientas para la evaluación de algoritmos de registro y se evalúan en la aplicación sobre imágenes multimodalidad a través de dos metodologías: 1) el uso de imágenes cuya alineación se conoce a priori a través de unos marcadores fiables (fiducial markers) eliminados de las imágenes antes del proceso de validación; y 2) el uso de imágenes sintetizadas con las propiedades de cierta modalidad de interés, generadas en base a otra modalidad objetivo y cuya des-alineación es controlada y conocida a priori. Para la primera de las metodologías, se hizo uso de un proyecto (RIRE – Retrospective Image Registration Evaluation Project) ampliamente conocido y que asegura la fiabilidad de la validación al realizarse por terceros. En la segunda, se propone la utilización de una metodología de simulación de imágenes SPECT (Single Photon Emission Computed Tomography) a partir de imágenes de Resonancia Magnética (que es la referencia anatómica). Finalmente, se realiza la modularización del algoritmo de registro validado en la herramienta FocusDET, para la localización del Foco Epileptógeno (FE) en Epilepsia parcial intratable, sustituyendo a la versión anterior en la que el proceso de registro se encontraba embebido en dicho software, dificultando enormemente cualquier tarea de revisión, validación o evaluación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente documento de la RED TEMÁTICA FRUTURA de CYTED recoge las aportaciones de sus miembros al denominado 1er evento, celebrado en Sao Paulo en septiembre de 2009. El título asignado a dicho primer evento o reunión de los participantes, contiene el tema asignado a la Red Temática, es decir Desarrollo de un sistema integral de la mejora de la calidad y seguridad de las frutas durante la confección, el transporte y la comercialización mediante nuevas tecnologías de inspección y monitorización, y se refiere al análisis de temas actuales respecto de la Detección y caracterización de problemas asociados a la calidad: Los problemas y desafíos asociados con el transporte de fruta fresca para cada país participante, con especial atención a los países tropicales. Bajo este título se organizan unas sesiones técnicas, y visitas y presentaciones técnicas en instituciones de Sao Paulo y el EMBRAPA, que son las siguientes: Visita técnica a la Unidad de Instrumentación Agropecuaria en São Carlos/SP , sita a 300 km de São Paulo), y la visita técnica a la Central de Abastecimiento del Estado de São Paulo - CEAGESP/SP. Las contribuciones aquí recogidas se completaron con los puntos de vista expresados por la industria, en un coloquio de empresas, presidido por el Dr. Fernando Flores, con la participación de industriales, que abordaron sus puntos de vista sobre el tema: Los problemas del transporte de frutas y hortalizas, desde el punto de vista de la industria. De ellas se extrajo algunas conclusiones para tener en cuenta en las siguientes reuniones. La principal de ellas, fue que es fundamental a la hora de aconsejar mejoras en el transporte internacional de frutas contar con dicho punto de vista, lo que se tendrá en cuenta en los eventos siguientes de FRUTURA . Asociando países y contribuciones, se identificaron y describieron varios condicionamientos y problemas que aparecen durante el transporte de productos perecederos, en especial de frutas durante su transporte, y que se asocian a pérdidas de calidad: • Evaluar la problemática del transporte de frutas y hortalizas a mercados ubicados a gran distancia supone entender la fisiología del producto y conocer los cambios que puede sufrir durante la conservación y el transporte. Las pérdidas en el transporte de frutas se basan en condiciones ambientales no apropiadas a las que el producto se ve expuesto, tanto en transporte terrestre como en el aéreo, y se relaciona con instalaciones y equipos de frío insuficientes, e insuficientemente controlados. • La reglamentación de cada uno de los países receptores de fruta y hortalizas frescas afecta enormemente a los intercambios comerciales, y es un aspecto que debe ser estudiado especialmente, y a nivel internacional. Existen por ejemplo regulaciones cuarentenarias frente a plagas que requieren tratamientos específicos con altas exigencias tecnológicas. • Teniendo en cuenta que las condiciones óptimas, en especial de temperatura, son diferentes para cada producto. los amplísimos conocimientos y datos existentes a este respecto han de ser analizados y aplicados apropiadamente en los procesos de transporte. • Se establece el alto potencial de nuevas tecnologías como las RFID (Identificación por Radio Frecuencia) y WSN (Redes inalámbricas de Sensores) que hacen posible la supervisión/monitorización y el control de las condiciones del ambiente y del producto en el interior de contenedores de transporte. • El diseño y uso de envases adecuados al producto, el tipo de transporte, paletización, condiciones de frío y las especies frutícolas debe ser analizado cuidadosamente para grandes distancias. Por otro lado, aumenta de demanda de productos fáciles de preparar, siendo las frutas como manzana, pera y durazno mínimamente procesadas en fresco (MPF) una nueva alternativa para los consumidores. Sin embargo estas frutas MPF presentan una serie de daños durante su procesamiento que reducen su vida útil durante su transporte y comercialización, por lo que presentan exigencias especiales en su envasado, comercialización y almacenaje. • Se añade a la variabilidad y falta de calidad de las frutas en el mercado, las deficiencias en las fechas y condiciones de cosecha, de envasado, de tratamiento y de manejo en origen, y a lo largo de la cadena de distribución. • Debe asumirse en varios países y zonas productivas una falta de conocimientos de los productores, transportistas e intermediarios en la distribución. (Es un objetivo iniciar acciones de formación en este sentido, a través de FRUTURA). • Los problemas en las infraestructuras, se centran en varios aspectos de gran relevancia y en todo caso requieren ser optimizados si se persigue calidad y reducción de pérdidas: situación de las fincas, caminos, distancias, carreteras, puertos, aeropuertos, equipos de transporte (camiones, contenedores). Las capacidades y características de los centros de distribución, tales como los visitados CEAGESP de Sao Paulo y MERCAMADRID que representan un factor de enorme influencia en la comercialización de calidad, procesos y productos. Los artículos, al ser contribuciones de los miembros de los distintos países asociados a FRUTURA aportan datos, de la producción frutícola y de su transporte, específicos para algunos de los países participantes en el proyecto: Uruguay, Argentina, Brasil, Costa Rica y España. Los trabajos aquí recogidos se completan con las presentaciones expuestas en la reunión, y que se encuentran accesibles en la página web de FRUTURA: www.frutura.net. Finalmente, otra contribución relevante de estos trabajos es sus listados de bibliografía, los cuales ofrecen una información de gran valor dentro de los objetivos de FRUTURA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La computación basada en servicios (Service-Oriented Computing, SOC) se estableció como un paradigma ampliamente aceptado para el desarollo de sistemas de software flexibles, distribuidos y adaptables, donde las composiciones de los servicios realizan las tareas más complejas o de nivel más alto, frecuentemente tareas inter-organizativas usando los servicios atómicos u otras composiciones de servicios. En tales sistemas, las propriedades de la calidad de servicio (Quality of Service, QoS), como la rapídez de procesamiento, coste, disponibilidad o seguridad, son críticas para la usabilidad de los servicios o sus composiciones en cualquier aplicación concreta. El análisis de estas propriedades se puede realizarse de una forma más precisa y rica en información si se utilizan las técnicas de análisis de programas, como el análisis de complejidad o de compartición de datos, que son capables de analizar simultáneamente tanto las estructuras de control como las de datos, dependencias y operaciones en una composición. El análisis de coste computacional para la composicion de servicios puede ayudar a una monitorización predictiva así como a una adaptación proactiva a través de una inferencia automática de coste computacional, usando los limites altos y bajos como funciones del valor o del tamaño de los mensajes de entrada. Tales funciones de coste se pueden usar para adaptación en la forma de selección de los candidatos entre los servicios que minimizan el coste total de la composición, basado en los datos reales que se pasan al servicio. Las funciones de coste también pueden ser combinadas con los parámetros extraídos empíricamente desde la infraestructura, para producir las funciones de los límites de QoS sobre los datos de entrada, cuales se pueden usar para previsar, en el momento de invocación, las violaciones de los compromisos al nivel de servicios (Service Level Agreements, SLA) potenciales or inminentes. En las composiciones críticas, una previsión continua de QoS bastante eficaz y precisa se puede basar en el modelado con restricciones de QoS desde la estructura de la composition, datos empiricos en tiempo de ejecución y (cuando estén disponibles) los resultados del análisis de complejidad. Este enfoque se puede aplicar a las orquestaciones de servicios con un control centralizado del flujo, así como a las coreografías con participantes multiples, siguiendo unas interacciones complejas que modifican su estado. El análisis del compartición de datos puede servir de apoyo para acciones de adaptación, como la paralelización, fragmentación y selección de los componentes, las cuales son basadas en dependencias funcionales y en el contenido de información en los mensajes, datos internos y las actividades de la composición, cuando se usan construcciones de control complejas, como bucles, bifurcaciones y flujos anidados. Tanto las dependencias funcionales como el contenido de información (descrito a través de algunos atributos definidos por el usuario) se pueden expresar usando una representación basada en la lógica de primer orden (claúsulas de Horn), y los resultados del análisis se pueden interpretar como modelos conceptuales basados en retículos. ABSTRACT Service-Oriented Computing (SOC) is a widely accepted paradigm for development of flexible, distributed and adaptable software systems, in which service compositions perform more complex, higher-level, often cross-organizational tasks using atomic services or other service compositions. In such systems, Quality of Service (QoS) properties, such as the performance, cost, availability or security, are critical for the usability of services and their compositions in concrete applications. Analysis of these properties can become more precise and richer in information, if it employs program analysis techniques, such as the complexity and sharing analyses, which are able to simultaneously take into account both the control and the data structures, dependencies, and operations in a composition. Computation cost analysis for service composition can support predictive monitoring and proactive adaptation by automatically inferring computation cost using the upper and lower bound functions of value or size of input messages. These cost functions can be used for adaptation by selecting service candidates that minimize total cost of the composition, based on the actual data that is passed to them. The cost functions can also be combined with the empirically collected infrastructural parameters to produce QoS bounds functions of input data that can be used to predict potential or imminent Service Level Agreement (SLA) violations at the moment of invocation. In mission-critical applications, an effective and accurate continuous QoS prediction, based on continuations, can be achieved by constraint modeling of composition QoS based on its structure, known data at runtime, and (when available) the results of complexity analysis. This approach can be applied to service orchestrations with centralized flow control, and choreographies with multiple participants with complex stateful interactions. Sharing analysis can support adaptation actions, such as parallelization, fragmentation, and component selection, which are based on functional dependencies and information content of the composition messages, internal data, and activities, in presence of complex control constructs, such as loops, branches, and sub-workflows. Both the functional dependencies and the information content (described using user-defined attributes) can be expressed using a first-order logic (Horn clause) representation, and the analysis results can be interpreted as a lattice-based conceptual models.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La determinación no destructiva de la calidad interna de la fruta ha sido un objetivo prioritario en las investigaciones recientes (Abbott, 1999). La espectroscopia en el infrarrojo (NIR) es aplicable a la cuantificación de compuestos químicos en alimentos; por otro lado se ha comprobado que el uso de láseres es interesante para la estimación no destructiva de la firmeza de los frutos. Sin embargo estas técnicas ópticas más tradicionales tienen el inconveniente de que miden la intensidad de luz transmitida sin poder diferenciar el efecto de la absorción óptica del efecto de la dispersión espacial que sufre la luz en el interior de los tejidos, lo cual dificulta la estimación independiente de aspectos físicos y químicos. La espectroscopia con resolución temporal es una técnica óptica desarrollada para el diagnóstico en medicina, que permite diferenciar ambos fenómenos (absorción y dispersión), proporcionando una caracterización óptica completa de los tejidos. El objetivo del presente trabajo ha sido la aplicación de esta técnica a frutas y hortalizas, y el desarrollo de modelos matemáticos de estimación no destructiva de su calidad interna para su uso en procesos de clasificación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proyecto geotécnico de columnas de grava tiene todas las incertidumbres asociadas a un proyecto geotécnico y además hay que considerar las incertidumbres inherentes a la compleja interacción entre el terreno y la columna, la puesta en obra de los materiales y el producto final conseguido. Este hecho es común a otros tratamientos del terreno cuyo objetivo sea, en general, la mejora “profunda”. Como los métodos de fiabilidad (v.gr., FORM, SORM, Monte Carlo, Simulación Direccional) dan respuesta a la incertidumbre de forma mucho más consistente y racional que el coeficiente de seguridad tradicional, ha surgido un interés reciente en la aplicación de técnicas de fiabilidad a la ingeniería geotécnica. Si bien la aplicación concreta al proyecto de técnicas de mejora del terreno no es tan extensa. En esta Tesis se han aplicado las técnicas de fiabilidad a algunos aspectos del proyecto de columnas de grava (estimación de asientos, tiempos de consolidación y aumento de la capacidad portante) con el objetivo de efectuar un análisis racional del proceso de diseño, considerando los efectos que tienen la incertidumbre y la variabilidad en la seguridad del proyecto, es decir, en la probabilidad de fallo. Para alcanzar este objetivo se ha utilizado un método analítico avanzado debido a Castro y Sagaseta (2009), que mejora notablemente la predicción de las variables involucradas en el diseño del tratamiento y su evolución temporal (consolidación). Se ha estudiado el problema del asiento (valor y tiempo de consolidación) en el contexto de la incertidumbre, analizando dos modos de fallo: i) el primer modo representa la situación en la que es posible finalizar la consolidación primaria, parcial o totalmente, del terreno mejorado antes de la ejecución de la estructura final, bien sea por un precarga o porque la carga se pueda aplicar gradualmente sin afectar a la estructura o instalación; y ii) por otra parte, el segundo modo de fallo implica que el terreno mejorado se carga desde el instante inicial con la estructura definitiva o instalación y se comprueba que el asiento final (transcurrida la consolidación primaria) sea lo suficientemente pequeño para que pueda considerarse admisible. Para trabajar con valores realistas de los parámetros geotécnicos, los datos se han obtenido de un terreno real mejorado con columnas de grava, consiguiendo, de esta forma, un análisis de fiabilidad más riguroso. La conclusión más importante, obtenida del análisis de este caso particular, es la necesidad de precargar el terreno mejorado con columnas de grava para conseguir que el asiento ocurra de forma anticipada antes de la aplicación de la carga correspondiente a la estructura definitiva. De otra forma la probabilidad de fallo es muy alta, incluso cuando el margen de seguridad determinista pudiera ser suficiente. En lo que respecta a la capacidad portante de las columnas, existen un buen número de métodos de cálculo y de ensayos de carga (tanto de campo como de laboratorio) que dan predicciones dispares del valor de la capacidad última de las columnas de grava. En las mallas indefinidas de columnas, los resultados del análisis de fiabilidad han confirmado las consideraciones teóricas y experimentales existentes relativas a que no se produce fallo por estabilidad, obteniéndose una probabilidad de fallo prácticamente nula para este modo de fallo. Sin embargo, cuando se analiza, en el contexto de la incertidumbre, la capacidad portante de pequeños grupos de columnas bajo zapatas se ha obtenido, para un caso con unos parámetros geotécnicos típicos, que la probabilidad de fallo es bastante alta, por encima de los umbrales normalmente admitidos para Estados Límite Últimos. Por último, el trabajo de recopilación sobre los métodos de cálculo y de ensayos de carga sobre la columna aislada ha permitido generar una base de datos suficientemente amplia como para abordar una actualización bayesiana de los métodos de cálculo de la columna de grava aislada. El marco bayesiano de actualización ha resultado de utilidad en la mejora de las predicciones de la capacidad última de carga de la columna, permitiendo “actualizar” los parámetros del modelo de cálculo a medida que se dispongan de ensayos de carga adicionales para un proyecto específico. Constituye una herramienta valiosa para la toma de decisiones en condiciones de incertidumbre ya que permite comparar el coste de los ensayos adicionales con el coste de una posible rotura y , en consecuencia, decidir si es procedente efectuar dichos ensayos. The geotechnical design of stone columns has all the uncertainties associated with a geotechnical project and those inherent to the complex interaction between the soil and the column, the installation of the materials and the characteristics of the final (as built) column must be considered. This is common to other soil treatments aimed, in general, to “deep” soil improvement. Since reliability methods (eg, FORM, SORM, Monte Carlo, Directional Simulation) deals with uncertainty in a much more consistent and rational way than the traditional safety factor, recent interest has arisen in the application of reliability techniques to geotechnical engineering. But the specific application of these techniques to soil improvement projects is not as extensive. In this thesis reliability techniques have been applied to some aspects of stone columns design (estimated settlements, consolidation times and increased bearing capacity) to make a rational analysis of the design process, considering the effects of uncertainty and variability on the safety of the project, i.e., on the probability of failure. To achieve this goal an advanced analytical method due to Castro and Sagaseta (2009), that significantly improves the prediction of the variables involved in the design of treatment and its temporal evolution (consolidation), has been employed. This thesis studies the problem of stone column settlement (amount and speed) in the context of uncertainty, analyzing two failure modes: i) the first mode represents the situation in which it is possible to cause primary consolidation, partial or total, of the improved ground prior to implementation of the final structure, either by a pre-load or because the load can be applied gradually or programmed without affecting the structure or installation; and ii) on the other hand, the second mode implies that the improved ground is loaded from the initial instant with the final structure or installation, expecting that the final settlement (elapsed primary consolidation) is small enough to be allowable. To work with realistic values of geotechnical parameters, data were obtained from a real soil improved with stone columns, hence producing a more rigorous reliability analysis. The most important conclusion obtained from the analysis of this particular case is the need to preload the stone columns-improved soil to make the settlement to occur before the application of the load corresponding to the final structure. Otherwise the probability of failure is very high, even when the deterministic safety margin would be sufficient. With respect to the bearing capacity of the columns, there are numerous methods of calculation and load tests (both for the field and the laboratory) giving different predictions of the ultimate capacity of stone columns. For indefinite columns grids, the results of reliability analysis confirmed the existing theoretical and experimental considerations that no failure occurs due to the stability failure mode, therefore resulting in a negligible probability of failure. However, when analyzed in the context of uncertainty (for a case with typical geotechnical parameters), results show that the probability of failure due to the bearing capacity failure mode of a group of columns is quite high, above thresholds usually admitted for Ultimate Limit States. Finally, the review of calculation methods and load tests results for isolated columns, has generated a large enough database, that allowed a subsequent Bayesian updating of the methods for calculating the bearing capacity of isolated stone columns. The Bayesian updating framework has been useful to improve the predictions of the ultimate load capacity of the column, allowing to "update" the parameters of the calculation model as additional load tests become available for a specific project. Moreover, it is a valuable tool for decision making under uncertainty since it is possible to compare the cost of further testing to the cost of a possible failure and therefore to decide whether it is appropriate to perform such tests.